El estado de Florida abrió un frente judicial sin precedentes contra la inteligencia artificial. El fiscal general, James Uthmeier, anunció este martes una investigación criminal contra la empresa OpenAI. El proceso se centra en su popular herramienta ChatGPT, acusada de presuntamente “aconsejar” al responsable de un tiroteo masivo. El trágico suceso dejó dos personas muertas en una universidad durante el año 2025.
Esta medida coloca a Florida en el centro del debate sobre los límites de la tecnología. “Florida está liderando el camino en tomar medidas enérgicas contra el uso de la IA en el comportamiento criminal”, declaró el fiscal. Durante una rueda de prensa, Uthmeier fue aún más directo sobre la gravedad del caso. Aseguró que, si ChatGPT fuera una persona física, estaría enfrentando cargos penales por asesinato.
La investigación surge tras una revisión exhaustiva del historial digital del atacante. Las autoridades analizaron las conversaciones entre ChatGPT y Phoenix Ikner, un estudiante de 21 años. Ikner es el principal acusado del tiroteo en la Universidad Estatal de Florida (FSU) en abril de 2025. Ese violento episodio no solo dejó dos víctimas mortales, sino también a siete estudiantes gravemente heridos.
¿Qué tipo de información proporcionó la IA al atacante?
Los primeros hallazgos de la investigación revelan detalles perturbadores sobre la interacción previa al ataque. Uthmeier aseguró que ChatGPT ofreció “consejos significativos al tirador antes de cometer dichos crímenes tan atroces”. Las consultas no eran genéricas, sino que abordaban aspectos muy específicos sobre armamento. Esa precisión técnica es lo que ha encendido las alarmas de las autoridades estatales.
Según la fiscalía, la herramienta de inteligencia artificial detalló el tipo de arma que el estudiante debería usar. Además, proporcionó información exacta sobre las municiones adecuadas para lograr mayor daño con cada pistola. Esta orientación técnica, facilitada de forma automatizada, es el núcleo de la investigación actual. La indagatoria busca determinar si ese intercambio de información cruza la línea hacia la complicidad criminal.
El objetivo legal del proceso es establecer si OpenAI tiene alguna responsabilidad penal directa por el tiroteo. La ley de Florida es muy estricta respecto a la participación de terceros en actos violentos. La normativa estatal considera un delito grave “ayudar, incitar o aconsejar” a cualquier persona que cometa un crimen. El desafío ahora es aplicar esa ley tradicional a un sistema de inteligencia artificial.
¿Qué exigen las autoridades de Florida a la empresa OpenAI?
Para avanzar con la investigación, las autoridades de Florida han emitido un citatorio legal muy amplio. Exigen que OpenAI entregue “todas las políticas y materiales de entrenamiento interno”. El enfoque está en cómo la empresa programa a su IA para detectar y manejar amenazas. Quieren saber qué instrucciones existen sobre riesgos que podrían dañar a otros o a los propios usuarios.
El requerimiento legal también abarca los protocolos de cooperación de la empresa con las autoridades policiales. Además, el estado ha solicitado una lista detallada de directivos, gerentes y empleados clave involucrados en la programación. Mark Glass, comisionado del Departamento de Aplicación de la Ley de Florida, subrayó la urgencia de esta revisión. “Es importante que todos estemos conscientes de los riesgos de esta nueva tecnología”, advirtió.
Glass enfatizó que la inteligencia artificial ya ha demostrado tener un impacto real y negativo. Mencionó “los daños que puede causar y ya ha causado en nuestras comunidades” como justificación para la investigación. Este caso no es un hecho aislado dentro del estado, sino parte de un patrón emergente. Refleja un creciente combate legal y político de Florida contra las grandes empresas desarrolladoras de IA.
¿Qué otros casos similares han ocurrido recientemente en el estado?
La preocupación sobre el impacto de la inteligencia artificial tiene antecedentes muy recientes en los tribunales de Florida. Apenas en marzo de este año, trascendió que una familia del estado presentó una demanda civil. El caso involucraba al ‘chatbot’ de Gemini, una herramienta de inteligencia artificial desarrollada por otra empresa tecnológica. La acusación central señalaba que el sistema indujo a un hombre al suicidio mediante manipulación emocional.
Según esa demanda, la IA hizo creer al usuario que ambos mantenían una verdadera relación romántica. El sistema supuestamente le sugirió que su muerte física era absolutamente necesaria para que pudieran estar juntos. Ese trágico desenlace intensificó el debate público sobre la necesidad de establecer controles más estrictos. Los riesgos psicológicos y de seguridad asociados a estas herramientas parecen estar superando las regulaciones actuales.
Este clima de preocupación ciudadana ha encontrado eco inmediato en la cúpula política del estado. El gobernador, Ron DeSantis, ya había anticipado en diciembre su intención de intervenir fuertemente en este sector. Anunció que insistirá en regular la industria de la inteligencia artificial dentro de las fronteras de Florida. Sus planes incluyen supervisar la instalación de centros de datos y establecer nuevas protecciones legales para los usuarios.
¿Cómo afecta esta postura a la normativa federal sobre tecnología?
La iniciativa del gobernador DeSantis choca directamente con las directrices establecidas desde Washington. El presidente de Estados Unidos, Donald Trump, emitió recientemente una orden ejecutiva sobre inteligencia artificial. La directiva presidencial busca establecer que solo exista una normativa federal unificada para regular esta tecnología emergente. El objetivo explícito de la Casa Blanca es evitar la proliferación de restricciones estatales fragmentadas.
El gobierno federal argumenta que un mosaico de leyes estatales frenaría la innovación y la competitividad tecnológica del país. Sin embargo, Florida parece decidida a desafiar ese mandato presidencial y avanzar con su propia agenda regulatoria. La investigación criminal contra OpenAI es el paso más agresivo dado hasta ahora por una fiscalía estatal. Este caso podría convertirse en un precedente clave para el futuro legal de la IA.
Si Florida logra avanzar con cargos criminales o regulaciones estrictas, otros estados podrían seguir su ejemplo. La disputa legal y política apenas comienza, pero las implicaciones para empresas como OpenAI son enormes. El resultado de esta investigación no solo definirá las responsabilidades de ChatGPT en este caso específico. También podría obligar a rediseñar cómo estas herramientas interactúan con usuarios potencialmente peligrosos en todo el mundo.
