
Artificial Intelligence and the Law: Legal, Innovation and Regulation News
February 25, 2025 at 01:29 AM
OpenAI ha publicado un informe donde revela que monitorea activamente el uso de sus modelos y bloquea cuentas que considera involucradas en actividades “maliciosas”, como campañas de influencia y vigilancia digital. Lo importante aquí es que, al no señalar que procedió de una orden judicial o gubernamental, OpenAI deja entender que actuó por iniciativa propia, lo que significa que vigila los datos de los usuarios y decide unilateralmente qué es aceptable y qué no. Esto contradice la idea de que sus servicios son privados y seguros, ya que detecta patrones de uso, investiga y luego comparte información con actores externos, incluidos gobiernos y otras empresas tecnológicas.
Esto tiene serias implicaciones para la soberanía digital, ya que cualquier país o entidad que dependa de OpenAI para generar contenido o procesar información está sujeto a su vigilancia, sin mecanismos de apelación ni transparencia sobre cómo se toman estas decisiones. No es solo un problema para China o Irán, sino para cualquier nación que quiera desarrollar sus propias narrativas sin el filtro de una empresa alineada con intereses estadounidenses.
Este caso demuestra que la tecnología no es neutral y que las grandes empresas de IA no solo venden herramientas, sino que también imponen criterios sobre cómo deben usarse. Depender de estas plataformas implica ceder autonomía y exponerse a bloqueos, censura y vigilancia. La alternativa es apostar por soluciones propias y descentralizadas que garanticen mayor control sobre los datos y el uso de la IA.
Fuente con el análisis completo de OpenAI: https://cdn.openai.com/threat-intelligence-reports/disrupting-malicious-uses-of-our-models-february-2025-update.pdf