La eficacia de los agentes de IA aumenta con el trato humano
La implantación de las nuevas tecnologías aporta valor añadido y un salto diferencial en el trato al cliente.
En IA, alucinar significa inventarse cosas. Son respuestas que suenan bien, incluso convincentes, pero que son falsas.
Las alucinaciones siguen siendo el principal problema de la inteligencia artificial, incluso en los modelos más recientes de OpenAI como O3 y O4-mini. Aunque estas IA han mejorado en razonamiento y capacidad de procesamiento, tienden a inventar información falsa de forma convincente, lo que representa un riesgo, especialmente en tareas delicadas. Según datos de OpenAI, O3 falló en un 33% de las respuestas y O4-mini en un 48%, superando a modelos anteriores en errores. Casos como el de un abogado que presentó documentos ficticios generados por IA demuestran la importancia de mantener el juicio crítico y revisar siempre las respuestas.