El organismo de control de la privacidad de Italia prohibió temporalmente el popular servicio de inteligencia sintético ChatGPT creado por OpenAI respaldado por Microsoft, ya que los legisladores de todo el mundo buscan replicar al auge de los productos de IA.
La autoridad de protección de datos de la nación dijo el viernes que bloquearía el paso al chatbot en Italia, mientras examina la compilación de información personal de la compañía estadounidense durante una flamante brecha de seguridad cibernética, entre otros asuntos.
La medida se produce cuando los expertos en IA y los especialistas en ética hacen sonar la alerta sobre las enormes cantidades de datos que consumen servicios como ChatGPT de decenas de millones de usuarios en todo el mundo, lo que genera preocupación sobre cómo las empresas pueden poner en peligro su privacidad y seguridad.
El organismo de control de Italia inició una investigación sobre OpenAI a posteriori de que una brecha de seguridad cibernética la semana pasada llevó a que a las personas se les mostraran extractos de las conversaciones de ChatGPT de otros usuarios y su información financiera.
Los datos expuestos durante un período de nueve horas incluyeron nombres y apellidos, direcciones de facturación, tipos de tarjetas de crédito, fechas de vencimiento de tarjetas de crédito y los últimos cuatro dígitos de sus tarjetas de crédito, según un correo electrónico enviado por IA abierta a un cliente afectado, y trillado por el Financial Times.
El organismo de control con sede en Roma dijo que OpenAI, dirigido por el director ejecutor Sam Altman, debería dejar de intervenir ChatGPT en Italia en breve, de acuerdo con la orden, a posteriori de lo cual tendrá 20 días para replicar con pruebas en contrario.
Si OpenAI no asegura interiormente del plazo, podría enfrentarse a una multa de hasta 20 millones de euros. OpenAI no respondió a una solicitud de comentarios.
El regulador ha actuado contra los chatbots anteriormente, habiendo prohibido Replika.ai en febrero. Ese servicio es conocido por los usuarios que buscan producir conversaciones que discutan escenarios eróticos.
La medida de Italia representa la primera entusiasmo regulatoria contra el popular chatbot, y los legisladores de todo el mundo buscan replicar al aumento de los servicios de IA generativa.
Los expertos han estado preocupados por la gran cantidad de datos que están absorbiendo los modelos de verbo detrás de ChatGPT. OpenAI tenía más de 100 millones de usuarios activos mensuales dos meses a posteriori de su impulso. El nuevo motor de búsqueda Bing de Microsoft, asimismo impulsado por la tecnología OpenAI, estaba siendo usado por más de 1 millón de personas en 169 países interiormente de las dos semanas posteriores a su impulso en enero.
Esta semana, personas como Elon Musk y Yoshua Bengio, uno de los padres fundadores de los métodos modernos de IA, pidieron una pausa de seis meses en el exposición de sistemas más potentes que el recién agresivo GPT-4, citando grandes riesgos para la sociedad.
Algunos expertos de la industria y personas internas dijeron que la convocatoria era hipócrita y que era simplemente una forma de permitir que los « rezagados » de IA se pusieran al día con OpenAI, en un momento en que las grandes empresas tecnológicas compiten agresivamente para divulgar productos de IA como ChatGPT y Google’s Bard.
El regulador italiano dijo que inició una investigación a posteriori de señalar la « abandono de una saco judicial que justifique la compilación y el almacenamiento masivo de datos personales, con el fin de ‘entrenar’ los algoritmos » subyacentes a ChatGPT.
Incluso dijo que, según su observación interno, ChatGPT « no siempre proporcionó información precisa », lo que conduce a un mal uso de la información personal.
OpenAI ha dicho anteriormente que ha resuelto la seguridad cibernética cuestiones relacionadas con la fuga de información. Sin confiscación, OpenAI no podrá procesar los datos de los usuarios italianos a través de ChatGPT mientras la investigación esté en curso.
El regulador asimismo criticó la yerro de un filtro de OpenAI para repasar que los niños menores de 13 primaveras no estuvieran usando su servicio. Específicamente, el organismo de control afirmó que los niños menores de permanencia estaban expuestos a contenido e información que no era apropiado para su « nivel de autoconciencia ».
Actualmente, las tecnologías de IA generativa se encuentran bajo el ámbito regulatorio de las leyes digitales y de datos existentes, como el RGPD y la Ley de Servicios Digitales, que supervisan algunos aspectos de la misma.
Sin confiscación, la UE está preparando una regulación que regirá cómo se usa la IA en Europa, y las empresas que violen las reglas del bando enfrentarán multas de hasta 30 millones de euros o el 6 por ciento de la facturación anual total, lo que sea decano.