Italia bloqueará de forma temporal el software de inteligencia artificial ChatGPT tras una filtración de datos mientras investiga una posible infracción de las normas de protección de datos de la Unión Europea, informó el viernes el organismo supervisor de la privacidad.
La Autoridad de Protección de Datos italiana señaló que tomará medidas provisionales “hasta que ChatGPT respete la privacidad”, que incluyen la limitación temporal de que la empresa procese datos de usuarios italianos.
La empresa estadounidense OpenAI, que desarrolló el chatbot, indicó el viernes por la tarde que había “desactivado ChatGPT para los usuarios de Italia a petición del organismo italiano” de control de la privacidad.
La empresa cree que sus prácticas cumplen la legislación europea sobre privacidad y espera que ChatGPT vuelva a estar disponible en breve.
Se trata de “la primera restricción a nivel nacional de una plataforma de inteligencia artificial masiva por parte de una democracia”, dijo Alp Toker, director del grupo de defensa NetBlocks, que monitorea el acceso a internet a nivel mundial.
Escuelas y universidades en el mundo ya han bloqueado ChatGPT
Aunque algunas escuelas públicas y universidades de diversas partes del mundo han bloqueado ChatGPT de sus redes locales por preocupaciones de plagio, de momento no está claro cómo la bloqueará Italia a nivel nacional.
Parece que lo ha hecho pidiendo a OpenAI que lo retire, en lugar de utilizar restricciones técnicas que limiten el acceso al sitio web de OpenAI dentro de las fronteras del país.
También es poco probable que la medida afecte a aplicaciones de empresas que ya tienen licencia de OpenAI para usar la misma tecnología de su chatbot, como el motor de búsqueda Bing de Microsoft.
Los sistemas de inteligencia artificial que generan dichos chatbots, conocidos como modelos de lenguaje extenso, también son capaces de imitar estilos de escritura humana basados en la enorme cantidad de libros digitales y escritos en línea que han ingerido.
La Autoridad de Protección de Datos dijo que OpenAI debe informar en 20 días qué medidas ha tomado para garantizar la privacidad de los datos de los usuarios o enfrentarse a una multa de hasta 20 millones de euros (casi 22 millones de dólares) o 4 por ciento de sus ingresos anuales globales.
El comunicado de la agencia cita el Reglamento General de Protección de Datos y señaló que ChatGPT sufrió una filtración de datos el 20 de marzo que involucró “conversaciones de usuarios” e información sobre pagos de suscriptores.
OpenAI anunció previamente que tuvo que desconectar ChatGPT el 20 de marzo para arreglar una falla que permitió que algunas personas vieran títulos, o líneas de asunto, del historial de chat de otros usuarios.
“Nuestra investigación también halló que los datos personas de 1.2 por ciento de los usuarios de ChatGPT Plus pudieron haberse revelado a otro usuario”, dijo la empresa.
“Creemos que la cantidad de usuarios cuyos datos se revelaron a otra persona es extremadamente baja y hemos contactado a quienes pudieron verse afectados”.