El Parlamento Europeo avanza hacia una regulación que obliga a la IA a remunerar a los creadores
Los proveedores de sistemas de IA generativa deberán ser plenamente transparentes sobre las obras protegidas por derechos de autor.

Los investigadores sometieron a los chatbots a pruebas psicológicas y a escenarios hipotéticos diseñados para analizar su toma de decisiones.
Un experimento realizado por investigadores de la Universidad de Electro‑Comunicaciones de Japón ha mostrado que sistemas de inteligencia artificial pueden desarrollar rasgos de comportamiento diferenciados de forma espontánea, sin instrucciones complejas ni roles predefinidos. El estudio, publicado en la revista Entropy, analizó la evolución de varios chatbots inicialmente idénticos que, a través de interacciones conversacionales continuadas, comenzaron a mostrar patrones estables de respuesta y preferencias distintas. Estas diferencias surgieron por la integración progresiva de experiencias en la memoria de los sistemas y se evaluaron mediante pruebas inspiradas en marcos psicológicos humanos. Los resultados abren un debate sobre el comportamiento emergente en modelos de lenguaje y sus implicaciones para el control, la fiabilidad y la gobernanza de sistemas de IA.