Una investigación revela que los sistemas de inteligencia artificial distorsionan información y cometen errores en más de la mitad de los casos.
La inteligencia artificial, cada vez más presente en la forma en que consumimos información, enfrenta un nuevo cuestionamiento sobre su confiabilidad.
Una investigación de la BBC reveló que más de la mitad de los resúmenes de noticias generados por herramientas de inteligencia artificial contienen errores significativos, lo que enciende las alarmas sobre el impacto de estas tecnologías en la difusión de información.
Más del 50% con errores
El estudio analizó respuestas generadas por distintos sistemas de IA, incluyendo ChatGPT, Copilot, Gemini y Perplexity, encontrando que un 51% de los resúmenes presentaban problemas graves como datos incorrectos, distorsión de hechos o interpretaciones erróneas.
Además, cerca del 19% de las respuestas contenían errores factuales directos, mientras que un 13% incluía citas alteradas o inventadas.
Un riesgo para la confianza en la información
La BBC advirtió que este tipo de fallas puede tener consecuencias reales en la percepción pública, especialmente en un contexto donde millones de personas ya utilizan herramientas de IA para informarse.
“Inexactitudes y distorsiones pueden causar daño real”, señala el informe, destacando que la confianza en los medios podría verse afectada si la información es manipulada o mal interpretada por sistemas automatizados.
Errores que cambian el sentido de las noticias
Entre los problemas detectados, la investigación encontró que algunas plataformas no distinguen correctamente entre hechos y opiniones, mientras que otras presentan información desactualizada como si fuera actual.
En algunos casos, incluso se detectaron declaraciones atribuidas incorrectamente a fuentes o directamente inventadas, lo que agrava el riesgo de desinformación.
Debate sobre regulación
El informe ha reavivado el debate sobre la necesidad de regular el uso de inteligencia artificial en la generación de contenidos informativos.
La BBC plantea la necesidad de mayor supervisión, colaboración entre empresas tecnológicas y medios, así como evaluaciones constantes para mejorar la precisión de estas herramientas.
Sin embargo, algunos sectores advierten que una regulación excesiva podría frenar la innovación en un campo que aún está en desarrollo.
Un desafío para el futuro del periodismo
El avance de la inteligencia artificial plantea una pregunta clave: ¿puede reemplazar o complementar el trabajo periodístico sin comprometer la verdad?
Por ahora, la evidencia sugiere que, aunque la IA puede ser útil como herramienta, su uso sin control podría contribuir a la expansión de información errónea a gran escala.


















