Italia tiene bloqueado el chatbot AI ChatGPT hasta nuevo aviso
Primer gran ataque legal contra el bot de IA ChatGPT: en Italia, la autoridad de protección de datos está pidiendo a OpenAI que bloquee el acceso hasta nuevo aviso. El motivo es una fuga de datos, pero los problemas son más profundos.
DrLa Autoridad de Protección de Datos de Italia fue la primera autoridad en el mundo en ordenar a OpenAI que bloquee el AI Bot ChatGPT en Italia hasta nuevo aviso, “hasta que cumpla con las normas de protección de datos”. Según la autoridad, OpenAI y su principal producto violan la normativa europea sobre protección de datos personales.
Esta acción se deriva de la pérdida de datos que sufrió ChatGPT el 20 de marzo. Se han filtrado los chats de los usuarios y la información de pago de los suscriptores del servicio. Sin embargo, el problema es más profundo. Todos los que realizan investigaciones médicas deben obtener el consentimiento para llevar a cabo los ensayos. Aquellos que experimentan con nuevas tecnologías deben ser transparentes sobre el proceso, dijo a Wired Guido Scorza, del Departamento de Asuntos Políticos.
No existe “ninguna base legal que justifique la recopilación y el almacenamiento masivos de datos personales con el fin de ‘entrenar’ los algoritmos en los que se basa la plataforma”. Además, no existe un filtro de edad que mantenga a los menores de 13 años fuera de la plataforma.
Los menores son sometidos a respuestas groseramente inapropiadas en cuanto a su nivel de desarrollo y autoestima. OpenAI ahora tiene 20 días para explicar cómo pretende tomar el control del problema. De lo contrario, existe el riesgo de una multa de hasta 20 millones de euros.
A principios de esta semana, varios expertos en tecnología de alto perfil, como el jefe de Tesla, Elon Musk, y el cofundador de Apple, Steve Wozniak, pidieron que se detuviera la rápida expansión de la tecnología de inteligencia artificial por otras razones. Esta pausa en el desarrollo debería dar tiempo a la industria para establecer estándares de seguridad para el desarrollo de IA y evitar daños potenciales por tecnologías de IA más peligrosas. Si las empresas no están de acuerdo con esto, los gobiernos tendrán que intervenir e imponer un congelamiento. Entonces, los seis meses deben usarse, entre otras cosas, para desarrollar protocolos de seguridad.
En el comunicado, advierten sobre los peligros de la llamada IA generativa, como las implementadas con el bot de script ChatGPT o el generador de imágenes DALL-E de OpenAI. Estas herramientas de IA pueden simular la interacción humana y generar textos o imágenes en función de algunas palabras clave.
“Kick-off Politics” es el podcast de noticias diario de WELT. Tema principal analizado por los editores de WELT y fechas de hoy. Suscríbete al podcast en SpotifyY podcast de manzanaY música amazónica o directamente a través de un feed RSS.
“Analista exasperantemente humilde. Experto en tocino. Orgulloso especialista en alimentos. Lector certificado. Escritor ávido. Defensor de los zombis. Solucionador de problemas incurables”.
More Stories
Informe de mercado: Las preocupaciones sobre los tipos de interés y las elecciones estadounidenses pesan sobre el DAX
90 casos de enfermedad en 13 estados: bacterias coliformes encontradas en McDonald’s
Gran pedido: Riyadh Air añade 60 aviones Airbus A321neo a su flota