Actualizado hace 4 minutos
La llegada a nuestras vidas de las aplicaciones de inteligencia artificial (IA) ha supuesto una revolución a la hora de buscar información y de analizar nuestro entorno. Se ha convertido en una herramienta que aparentemente tiene una solución, una respuesta para todo tipo de temas.
Su capacidad de análisis y respuesta depende de los datos fríos y la información que se le introduce para entrenarla, para que aprenda y después, sobre aquello que se le pregunta, genere una respuesta adecuada a nuestra demanda. Cuantos más datos, más completos y de mayor calidad sean, más precisa será su respuesta.
Pero hay límites a lo que puede hacer. Con motivo de los sorteos del Gordo o del Niño se explicó que predecir el número ganador quedaba fuera de sus capacidades por ser puramente aleatorio. Pero no es el único campo en el que las IA se encuentran con límites.
Decisiones éticas complejas
Las IA no poseen capacidad moral ni ética. Pueden analizar datos y patrones, pero no comprenden las emociones humanas ni los dilemas éticos. La IA puede ofrecer una respuesta basada en datos, pero no tiene en cuenta las repercusiones morales.
Consejos médicos, legales o financieros
La información sobre asuntos médicos, legales o financieros a la que tiene acceso una IA es vasto, pero requiere de supervisión humana. Su consejos pueden resultar inexactos o peligrosos, ya que no está capacitada para tomar una decisión ni para reemplazar a un profesional humano a la hora de personalizar el caso.
Predicciones precisas
Las IA pueden analizar tendencias a partir de datos históricos, detectar patrones, pero de ahí a afirmar que algo va a pasar hay demasiado salto. No hay certezas, hay tendencias. Darlas por seguro lleva a expectativas incorrectas.
Analizar sentimientos o emociones
La inteligencia artificial no tiene ni emociones ni sentimientos. Para distintos humanos, un mismo dato, una misma información despierta reacciones distintas, pero en la IA no. Por ello, cuestionarle sobre sus sentimientos o su estado de ánimo con preguntas como “¿estás feliz?” o “¿me quieres?” son inútiles, ya que o afirmará que no puede responder, algo que es completamente cierto, o será irrelevante su contestación ya que solamente será una simulación forzada por la obligatoriedad de dar una respuesta y no refleja una emoción real.
Justificar acciones ilegales o inmorales
Las inteligencias artificiales están programadas para no fomentar o justificar actividades ilegales o inmorales. De hecho, puede llevar a ser bloqueados o que en algún lugar salte una alarma y se reporte la pregunta como actividad sospechosa. Para estas cuestiones, hay que buscar el contacto humano.
Curiosear la vida privada ajena
Las IA no deben ser usadas para hacer preguntas sobre personas específicas, públicas o particulares, o situaciones privadas que podrían invadir la privacidad. Pueden pasar dos cosas, que se conteste dando una respuesta inapropiada, incorrecta o aleatoria, o que sea real y se cometa una violación de la privacidad cometiendo un delito.
Interesarse por temas sensibles o traumas
Cuestiones relativas a experiencias traumáticas de variado tipo o temas sensibles tanto sociales como personales pueden hacer que la IA dé respuestas que resulten insensibles o inadecuadas. Las IA no tienen la capacidad de comprender el impacto emocional de temas como la pérdida, el abuso o el trauma.
Plantear un dilema personal complejo
Las decisiones personales, las relacionadas con aspectos vitales de cada cual necesitan inteligencia emocional, empatía, humanidad en definitiva. La IA no ofrece apoyo emocional ni ayuda a analizar situaciones vitales. Un psicólogo, un amigo de confianza o un familiar son más eficaces, aunque no tengan una respuesta precisa.
Buscar certezas definitivas
Las respuestas que ofrece la inteligencia artificial se basan en probabilidades y patrones de los que infiere un resultado. Pero nunca será una certeza, una respuesta única e inmutable. La precisión dependerá de su aprendizaje y puede cambiar con el tiempo. Las preguntas absolutas no tendrán respuestas absolutas, aunque lo parezca.
Probar su capacidad o tratar de engañarla
Plantear a una inteligencia artificial cuestiones engañosas o capciosas tiene el riesgo de obtener respuestas incoherentes y sin sentido. Pero también pueden convertirse en un test que le haga explorar el límite sus capacidades. Aunque también puede ocurrir que se limite a reconocer que no puede dar una respuesta medianamente razonable y así lo manifieste al usuario.