La UPV lidera un estudio internacional para garantizar una IA «segura y ética» en el ámbito sanitario
El trabajo propone 14 requisitos de diseño de software para minimizar los riesgos que las soluciones clínicas basadas en esta tecnología.
En IA, alucinar significa inventarse cosas. Son respuestas que suenan bien, incluso convincentes, pero que son falsas.
Las alucinaciones siguen siendo el principal problema de la inteligencia artificial, incluso en los modelos más recientes de OpenAI como O3 y O4-mini. Aunque estas IA han mejorado en razonamiento y capacidad de procesamiento, tienden a inventar información falsa de forma convincente, lo que representa un riesgo, especialmente en tareas delicadas. Según datos de OpenAI, O3 falló en un 33% de las respuestas y O4-mini en un 48%, superando a modelos anteriores en errores. Casos como el de un abogado que presentó documentos ficticios generados por IA demuestran la importancia de mantener el juicio crítico y revisar siempre las respuestas.