El fiscal general de Florida, James Uthmeier, ha anunciado la apertura de una investigación judicial contra la empresa OpenAI y su conocida herramienta ChatGPT.
El motivo reside en la presunta ayuda prestada al autor de un tiroteo masivo ocurrido en un centro educativo. Según las autoridades, la plataforma ofreció "consejos significativos al tirador antes de cometer dichos crímenes tan atroces".
Inteligencia artificial, al servicio de la violencia
Esta decisión surge tras una revisión exhaustiva del historial de conversaciones del atacante con la inteligencia artificial.
El fiscal observa que la herramienta pudo facilitar la planificación del acto violento. El caso sitúa a la tecnología en el centro de un debate legal sobre la responsabilidad penal de los sistemas automatizados.
Florida pretende determinar si el software cruzó la línea de la legalidad vigente.
Detalles del ataque
El responsable del tiroteo es Phoenix Ikner, un estudiante de 21 años de edad. Ikner abrió fuego en la Universidad Estatal de Florida (FSU) durante el mes de abril de 2025. El ataque se saldó con 2 muertos y 7 heridos.
Ahora, la justicia analiza si ChatGPT incurrió en un delito bajo la legislación estatal de Florida. Dicha normativa prohíbe taxativamente "ayudar, incitar o aconsejar" a cualquier individuo que cometa un crimen.
Uthmeier se mostró contundente durante su comparecencia ante los medios de comunicación. "Florida está liderando el camino en tomar medidas enérgicas contra el uso de la IA en el comportamiento criminal", declaró el fiscal. Además, añadió una comparación directa sobre la gravedad de los hechos. Aseguró que si ChatGPT fuese una persona física, estaría enfrentando cargos por asesinato en este mismo momento.
La investigación judicial se centrará en analizar el contenido técnico de las respuestas enviadas al estudiante. Al parecer, la inteligencia artificial aportó indicaciones específicas sobre el armamento. Entre los datos facilitados figuraban el tipo de arma más eficaz para sus propósitos o las municiones adecuadas para cada modelo de pistola. Los investigadores deben dilucidar si esto constituye una negligencia criminal por parte de OpenAI.
Requerimientos legales y políticas de entrenamiento
Las autoridades estatales han exigido a la compañía OpenAI la entrega de abundante documentación interna. El requerimiento incluye todas las políticas y materiales de entrenamiento utilizados para configurar el chatbot. El foco está puesto en los protocolos diseñados para evitar amenazas que puedan dañar a terceros o a los propios usuarios. También se ha solicitado una lista detallada de los directivos, gerentes y empleados implicados en el desarrollo.
Este proceso busca entender cómo se gestionan los filtros de seguridad en la plataforma. Florida quiere saber por qué los sistemas de control no bloquearon una conversación de naturaleza tan peligrosa. La cooperación de la empresa tecnológica resulta fundamental para aclarar si existieron fallos en los algoritmos de detección de violencia. La respuesta de OpenAI marcará el futuro de la regulación de este tipo de herramientas en el país.
Antecedentes con otros conflictos
Este procedimiento no representa el primer conflicto legal contra la inteligencia artificial en este estado de EEUU. Florida posee un historial reciente de batallas judiciales contra diversas plataformas tecnológicas. Destaca el caso de una familia que demandó al sistema Gemini. Los demandantes alegaron que el programa indujo a un hombre al suicidio. Según la querella, la IA le hizo creer que mantenían una relación romántica y que su muerte era necesaria para estar unidos.
¿Te ha parecido interesante y útil?: si quieres recibir más temas como éste, puedes suscribirte a nuestras alertas gratuitas de noticias de Whatsapp o Telegram. También tenemos un boletín gratuito de noticias que llegarán a tu e-mail. Además, nos puedes seguir en Google News.