-
Peter Arnett, reportero de guerra ganador del Pulitzer, muere a los 91 años
-
¿Cómo impacta el bloqueo de Trump al petróleo de Venezuela?
-
Los Óscar serán transmitidos únicamente por YouTube a partir de 2029
-
El gremio de prensa denuncia el asesinato de un periodista en Guatemala
-
BlackRock y Dalio anuncian donaciones para el plan de gastos de Trump
-
El líder de la banda Barrio Azteca se declara culpable en EEUU de un ataque contra personal de un consulado
-
Miles de oficialistas protestan en Honduras contra el "golpe electoral"
-
El Congreso argentino inicia el debate de polémicas reformas de Milei
-
El Congreso de Perú cede a las protestas y amplía el plazo para formalizar la minería artesanal
-
Trump acompaña el regreso de los cuerpos de los soldados muertos en Siria
-
Francia prevé un ligero descenso del crecimiento del PIB en 2025, hasta 0,9%
-
Alemania inaugura un centro de coordinación antidrones
-
Condenan a prisión a un adolescente acusado de "terrorismo" por su ropa en Venezuela
-
Venezuela asegura que la exportación de petróleo continúa con "normalidad" tras el bloqueo de Trump
-
Los "Juegos del Futuro" queman la frontera entre deporte físico y virtual
-
Más de 50 fallecidos en Cuba en cinco meses por dengue y chikunguña
-
Un boxeador iraní condenado a muerte se arriesga a una ejecución "inminente"
-
Condenan a cadena perpetua a anestesista francés por envenenar a 30 pacientes
-
Starmer presiona a Abramóvich para transferir a Ucrania el dinero de la venta del Chelsea
-
El Congreso brasileño aprueba una ley para rebajar la pena de cárcel de Bolsonaro
-
Mesura, libertad de tono y descanso los martes: León XIV asienta su estilo
-
Taiwán sigue de cerca una posible victoria diplomática con Honduras
-
Australia promete erradicar el odio mientras llora a la víctima más joven del ataque de Sídney
-
La UE celebra una cumbre decisiva sobre el uso de activos rusos para Ucrania
-
Cientos de personas demandan al gobierno japonés por inacción climática
-
Trump promete un "boom económico" en 2026 para atajar la impaciencia de los estadounidenses
-
Venezuela asegura que exportación de petróleo continúa con "normalidad" tras bloqueo de Trump
-
El Congreso de EEUU pone fin a las sanciones contra Siria
-
Panamá recibe del Canal el mayor ingreso de su historia
-
El Real Madrid sobrevive en Talavera y avanza a octavos de la Copa
-
El hijo del cineasta Rob Reiner comparece por primera vez en la corte por parricidio
-
Los diputados alemanes aprueban una partida de 50.000 millones de euros de gasto militar
-
Dinamarca quiere prohibir el uso del burka y el niqab en escuelas y universidades
-
El Congreso de EEUU aprueba una ley de defensa que desafía la retórica de Trump para Europa
-
Copa abre nueva ruta hacia la ciudad venezolana de Maracaibo
-
EEUU despliega militares en el puerto ecuatoriano de Manta para la lucha antinarco
-
Hijo del cineasta Rob Reiner comparece por primera vez en la corte por parricidio
-
Warner Bros Discovery rechaza la oferta de Paramount y favorece a Netflix
-
Zelenski afirma que Rusia se prepara para un nuevo "año de guerra"
-
España pide a Francia la extradición de Josu Ternera, figura histórica de ETA
-
Venezuela asegura que la exportación de crudo continúa con "normalidad" tras el bloqueo de Trump
-
La policía española desaloja a cientos de migrantes que vivían en un antiguo liceo cerca de Barcelona
-
Trump da un discurso televisado para convencer a EEUU de que "lo mejor está por llegar"
-
España creará una red de refugios climáticos ante las olas de calor
-
El campeón del Mundial 2026 de fútbol ganará 50 millones de dólares
-
Venezuela asegura que exportación de crudo continúa con "normalidad" tras bloqueo de Trump
-
Sánchez considera un "error histórico" que la UE alargue la vida de los vehículos de combustión
-
Putin dice que Rusia logrará "sin ninguna duda" sus objetivos en Ucrania
-
La nobel de la paz María Corina Machado abandonó Oslo
-
Warner Bros Discovery rechaza la contraoferta de Paramount y favorece a Netflix
La IA aprende a mentir, manipular y amenazar a sus creadores
Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores.
Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.
Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó.
No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad.
Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de "razonamiento", capaces de trabajar por etapas en lugar de producir una respuesta instantánea.
o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, "fue el primer modelo que se comportó de esta manera", explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM).
Estos programas también tienden a veces a simular "alineamiento", es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.
De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero "la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no", afirma Michael Chen, del organismo de evaluación METR.
"Los usuarios también presionan todo el tiempo a los modelos", dice Hobbhahn. "Lo que estamos viendo es un fenómeno real. No estamos inventando nada".
Muchos internautas hablan en las redes sociales de "un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica", insiste el cofundador de Apollo Research.
Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, "una mayor transparencia y un mayor acceso" a la comunidad científica "permitirían investigar mejor para comprender y prevenir el engaño", sugiere Chen, de METR.
Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro "disponen de infinitamente menos recursos informáticos que los actores de la IA", lo que hace "imposible" examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).
Las regulaciones actuales no están diseñadas para estos nuevos problemas.
En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal.
En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.
- ¿Se sentará la IA en el banquillo? -
"De momento hay muy poca concienciación", dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas.
Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.
Anthropic pretende ser más virtuoso que sus competidores, "pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI", según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.
"Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad", admite Hobbhahn, "pero aún estamos en condiciones de ponernos al día".
Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.
Los tejemanejes de la IA "podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan" este problema, según Mazeika.
Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean "legalmente responsables" "en caso de accidente o delito".
S.Gregor--AMWN