¿Alucinan las inteligencias artificiales con ovejas eléctricas?


¿Tu IA siempre te da la respuesta correcta? Desafortunadamente, su "verdad" puede ser una "alucinación".

Una "alucinación de IA" se refiere a casos en los que un modelo de lenguaje presenta información como un hecho, aunque sea falsa o infundada. Estas alucinaciones ocurren porque los sistemas de entrenamiento estándar priorizan la suposición sobre la incertidumbre.

Para medir las tasas de alucinación de la IA, un grupo de investigadores presentaron extractos de noticias a modelos de empresas líderes en IA. Luego, les pidieron que identificaran el artículo, la publicación y la URL originales. De esta manera, se puede verificar la precisión de las respuestas de los modelos. A continuación, se muestra una infografía la cual desglosa las tasas de alucinación de la IA por modelo (frecuencia con la que cada modelo obtuvo una respuesta parcial o totalmente incorrecta).



Lo anterior es de suma importancia, ya que el uso irresponsable (sin verificación) de la IA generativa puede conllevar riesgos de alto impacto:
  • Daño reputacional
  • Pérdidas financieras
  • Exposición legal
En la siguiente infografía se muestran los principales factores que determinan el grado de confianza de un modelo de IA.



  • Capability (Capacidad): Se refiere al grado en que un sistema de IA puede realizar correctamente las tareas para las que fue diseñado. Incluye su precisión, robustez, generalización y límites operativos.
  • Anthropomorphism (Antropomorfismo): Es la tendencia humana a atribuir características, intenciones o emociones humanas a los sistemas de IA. El antropomorfismo puede incrementar la confianza percibida, pero también generar riesgos, ya que los usuarios pueden sobrestimar la comprensión, autonomía o fiabilidad de la IA, especialmente en sistemas conversacionales o con interfaces “humanizadas”.
  • Individual Factors (Factores individuales): Son las características del usuario que influyen en cómo percibe y confía en un sistema de IA, como su nivel de conocimiento técnico, experiencia previa, cultura, edad, sesgos cognitivos o actitudes hacia la tecnología. En AI Trust, estos factores explican por qué un mismo sistema puede generar distintos niveles de confianza entre diferentes personas.
  • Explainability (Explicabilidad): Se refiere a la capacidad de un sistema de IA para explicar de manera comprensible cómo y por qué produce determinados resultados. La explicabilidad es clave para la confianza, ya que permite a los usuarios evaluar decisiones, detectar errores, identificar sesgos y asumir responsabilidad, especialmente en contextos críticos como salud, finanzas o políticas públicas.
  • Privacy Risk (Riesgo para la privacidad): Es la probabilidad de que un sistema de IA exponga, infiera o use indebidamente datos personales o sensibles.
En un contexto donde la IA se integra cada vez más en decisiones estratégicas, operativas y comunicacionales, confiar ciegamente en sus respuestas no es una opción. Comprender sus límites, evaluar sus capacidades reales y reconocer los factores que influyen en nuestra propia percepción de confianza es esencial para usarla de manera responsable.

La IA puede ser una aliada poderosa, pero solo cuando la acompañamos de criterio humano, verificación y una gestión consciente del riesgo. La pregunta ya no es si la IA alucina, sino qué tan preparados estamos para identificarlo y actuar en consecuencia.

La confianza en la IA no se construye con fe, sino con información, transparencia y buenas prácticas. Y ese trabajo empieza por nosotros.

Hasta aquí el post del día de hoy y recuerda que puedes seguirme en X y mantenerte informado de lo último de ciencia, tecnología e innovación en el mundo de la economía y las finanzas.

¡Hasta la próxima!

Comentarios

Entradas populares de este blog

¿Qué significan los números en el triángulo de reciclaje de los plásticos?

Las 10 economías más grandes de Asia

Historia de la Banca en México III: La privatización de la banca