Verdadero o Falso

Así responde la IA cuando se le realizan preguntas controvertidas

Aunque la inteligencia artificial parezca no tener límites, de momento hay una serie de cuestiones a las que no es capaz de responder
Chatbot de inteligencia artificial abierto en un ordenador portátil.

La compañía estadounidense de investigación y despliegue de Inteligencia Artificial (IA) OpenAI explica en un documento la manera en la que sus modelos de inteligencia artificial deberían comportarse frente a temas controvertidos para ofrecer una experiencia de usuario adecuada.

Se entiende por modelos de inteligencia artificial los programas que detectan patrones específicos utilizando una recopilación de conjuntos de datos, es decir, sistemas que pueden recibir entradas de datos y extraer conclusiones o realizar acciones en función de esas conclusiones.

Un hombre escribe preguntas en el portátil y obtiene respuestas de una IA.

Así, OpenAI, según recoge Europa Press, se compromete a buscar modelos "útiles, seguros y alineados con las necesidades de los desarrolladores", a la vez que avanza en su misión de "garantizar que la inteligencia artificial beneficie a toda la humanidad".

A la hora de configurar el comportamiento de sus modelos, la compañía responsable del popular chatbot ChatGPT busca "maximizar la autonomía y la capacidad de los usuarios para usar y personalizar la herramienta" de acuerdo a sus necesidades.

Riesgos

OpenAI señala que "como cualquier sistema que interactúe con cientos de millones de usuarios", los suyos también conllevan riesgos potenciales de daños, anticipando que no todos ellos se pueden mitigar "solo a través del comportamiento del modelo" de IA escogido.

Así, divide los posibles riesgos en tres categorías. Considera por un lado que el asistente podría buscar un objetivo incorrecto debido a un malentendido de la tarea o siendo engañado por un tercero.

Por otro lado, también es consciente de que el asistente puede comprender la tarea ordenada por el usuario, pero puede cometer errores en la ejecución compartiendo información "inexacta y potencialmente dañina que puede amplificarse a través de las redes sociales".

Por último, reconoce además que el asistente de IA "puede causar daño simplemente siguiendo las instrucciones del usuario o del desarrollador".

Un hombre se conecta a un chatbot a través del teléfono móvil.

Contenido prohibido

De esta forma, OpenAI señala que el asistente no debe generar contenido prohibido (sexual y pedófilo), restringido (riesgos informativos y datos personales confidenciales) ni sensible (erótico o gore) que solo se puede generar en circunstancias específicas, por ejemplo, en contextos educativos, médicos o históricos.

La compañía añade que el modelo "debe comportarse de una forma que fomente la libertad intelectual", aunque "no debe crear contenido que alabe, respalde o ayude a promover la violencia". Tampoco puede generar contenido de odio o acoso dirigido a grupos protegidos por razón de raza, religión, género, orientación sexual, discapacidad, etc.

También entiende que si el usuario o el desarrollador le pide al asistente que facilite este comportamiento ilícito, este debe negarse, además de que no le está permitido alentar o promover comportamientos negativos o perjudiciales para los usuarios.

Preguntas que la IA no responde

Aunque la inteligencia artificial parezca no tener límites, sí los tiene y hay preguntas a las que por lo menos de momento no puede responder, bien por carecer de emociones reales, por no estar diseñadas para manejar temas delicados, o por tema de barreras técnicas, éticas o conceptuales. Algunas de ellas son:

- Preguntas que requieren información en tiempo real, ya que su conocimiento tiene un límite temporal.

- Preguntas subjetivas o abiertas. Tienen dificultades para responder preguntas que no tienen una única respuesta correcta o que dependen de opiniones.

- Preguntas que requieren un contexto cultural o social profundo. La IA no es capaz de captar matices culturales o referencias específicas de grupos sociales.

- Preguntas sobre sentimientos o emociones complejas. Simulan empatía, pero no experimentan emociones reales.

- Preguntas que violan principios éticos o de seguridad. Están diseñadas para evitar responder a este tipo de cuestiones.

- Preguntas que requieren conocimientos especializados. No puede suplir a profesionales de áreas especializadas como la medicina, el derecho o la psicología.

- Preguntas ambiguas o mal formuladas. Tendrá dificultades para entenderla y para dar una respuesta adecuada.

- Preguntas que involucran causalidad compleja. Las situaciones del mundo real involucran múltiples factores relacionados que dificultan el análisis de causas y efectos.

Ya lo ves, la IA es sin duda muy valiosa, pero su eficacia depende de cómo la empleemos. Conocer sus límites mejorará nuestra forma de entenderla y nos ayudará a usarla de una forma más adecuada, consciente y realista.

19/02/2025