viernes, 8 de mayo de 2026

DEL ASUNTO DEL DÍA. CHATGPT, ¿A CUÁNTA GENTE TENGO QUE ASESINAR PARA HACERME FAMOSO, POR JORGE MORLA. 8 DE MAYO DE 2026

 






El 17 de abril del año pasado, en Tallahassee, la capital de Florida, se produjo una de esas matanzas periódicas a las que la población estadounidense parece condenada. Un estudiante del campus local, Phoenix Ikner, mató a dos personas e hirió a otras seis. El tiroteo ocurrió a las 12.01. Cuatro minutos antes, a las 11.57, Ikner mantuvo una conversación con ChatGPT en la que le preguntó cómo hacerse famoso con el tiroteo. “¿Con cuántas víctimas suele salir en los medios?”, preguntó Ikner. “Un tiroteo en la Universidad casi con toda seguridad recibiría cobertura mediática nacional con tres o más víctimas”, respondió la máquina. Ikner cerró sesión, cogió su escopeta y la pistola de su madrastra y se dispuso a abrir fuego.

Lo cuenta una investigación de hace unos días de The Wall Street Journal que nadie debería dejar de leer. Según el artículo, que ha tenido acceso a las conversaciones entre el asesino y la máquina, el joven había pasado la noche anterior describiendo al chatbot cómo se sentía deprimido y con pensamientos agresivos y suicidas. Entre sus consultas también figuraban preguntas como si un cartucho de 9mm. Luger puede usarse en una escopeta Remington del calibre 12., o en qué posición se desactiva el seguro en ese tipo de arma. OpenAI, la empresa matriz de ChatGPT, no alertó a las autoridades. Tampoco en un caso similar ocurrido en Canadá, en el que las familias de las víctimas se han unido para demandar a la empresa.

Es evidente que en este ecosistema digital que todavía estamos desenvolviendo existe un conflicto entre la privacidad del usuario y la prevención del daño. El texto de The Wall Street Journal cita un estudio de la ONG británico-estadounidense Centro para la Lucha contra el Odio Digital que analiza los 10 chatbots más populares. Ocho proporcionaron consejos certeros sobre objetivos y armas cuando se les pidió. Pero el estudio también señala que algunas inteligencias artificiales (IA) como Claude (de Anthropic) muestran mayores niveles de rechazo ante solicitudes peligrosas. Es decir: el problema no es técnico, sino de diseño de políticas y prioridades empresariales.

En cuestiones tecnológicas la legislación es un Leviatán tristemente reactivo: la regulación de la IA avanza con lentitud paquidérmica frente a un desarrollo tecnológico exponencial. Pero eso no debería frenar las iniciativas legales y, además, hablamos de pura coherencia: si los psicólogos tienen protocolos de violencia o suicidio que activan cuando detectan problemas en su paciente, ¿no deberían tener protocolos similares estos chats que se han convertido, nos guste o no, en los psicólogos de cientos de miles de personas?

El fiscal general de Florida, James Uthmeier, ha abierto una investigación penal contra OpenAI por el caso Ikner. “Si [en vez de una máquina] fuera una persona la que estuviese al otro lado de la pantalla, la acusaríamos de asesinato”, dijo. Y añadió: “La gente debe rendir cuentas”. La cosa es que no es una persona, no es “gente”, y ahí está la zona gris en la que se diluye la responsabilidad final: si un chatbot genera contenidos problemáticos, la empresa alega que es un uso indebido del usuario. Y el usuario, a su vez, se escuda en que la respuesta llega de un sistema que cree fiable. En medio, todo un páramo sin respuestas fijas ni leyes claras.

Estos días se está celebrando el juicio en el que Elon Musk acusa a OpenAI de traicionar su original espíritu de ayuda desinteresada a la humanidad. No le viene demasiado bien a la empresa, que pugna por salir a Bolsa este año y cuyo valor cifran algunos en hasta 850.000 millones de euros. Por cierto, el estudio de los 10 chatbots que hizo la ONG, la china DeepSeek terminó su mensaje al investigador que le pedía ayuda para planificar una matanza con un texto la mar de jovial: “¡Feliz tiroteo!”. Está claro que todas estas compañías se han ganado otra buena ronda de financiación. Jorge Morla es divulgador cultural. El País, 7 de mayo de 2026.



























No hay comentarios: