fondo
Estado: 04/11/2023 19:47
El gigante tecnológico chino Alibaba quiere involucrarse en el negocio de la IA. Al mismo tiempo, Beijing está preparando requisitos estatales. Pero los gobiernos de Occidente también deberían preguntarse: ¿Cuántas reglas necesita la tecnología?
Por Antonia Manweiler, tagesschau.de
Fue un gran anuncio para el gigante chino de Internet Alibaba. El departamento de nube del grupo de comercio en línea presentó hoy un competidor para el bot de script ChatGPT: el programa de lenguaje “Tongyi Qianwen”, que significa algo así como “mil preguntas de la verdad”, que también utiliza inteligencia artificial (IA). Pero solo después de un corto tiempo, la alegría de los desarrolladores debería haber recibido un poderoso freno. Al mismo tiempo, el regulador chino de Internet, “Administración del Ciberespacio de China”, publicó el primer borrador de las regulaciones previstas para los servicios de inteligencia artificial.
En 21 puntos, la autoridad presenta los requisitos potenciales que las empresas chinas y los desarrolladores de modelos de lenguaje de IA pueden enfrentar pronto. Según Beijing, el contenido debe reflejar los “valores fundamentales del socialismo”. Además, no se podrá publicar información que pueda perturbar el sistema económico y social. Al desarrollar algoritmos, también se debe tener cuidado para evitar la discriminación basada en el género o la edad.
“alucinaciones” calmantes
El problema de los desarrolladores también debería ser la regla de que todo el contenido debe ser honesto. El desarrollo de modelos de lenguaje de IA se encuentra actualmente en una etapa temprana. En muchos casos, el software sigue funcionando de forma imprecisa y es bastante propenso a errores. Google, por ejemplo, cometió un vergonzoso error al presentar su chatbot “Cool”, que dio una respuesta incorrecta sobre el telescopio James Webb en su primera aparición pública. Por otro lado, el chat bot de Alibaba está inicialmente orientado a la vida empresarial y está destinado a escribir documentos o correos electrónicos, por ejemplo.
Sin embargo, queda por ver qué tan bien el bot resiste a la competencia, dice George Karapetyan, especialista en inteligencia artificial de la consultora LPA. tagesschau.de. “Además, según los informes iniciales de los usuarios, el bot de Alibaba estaba teniendo ‘alucinaciones’, lo que en última instancia significa que está dando respuestas incorrectas con confianza”.
La autoridad reguladora china ahora quiere poner fin a este tipo de contenido falso. Los comentarios y sugerencias se pueden enviar en el índice de estatutos hasta el 10 de mayo. “A medida que el gobierno chino comienza a regular y ordenar lo que estos bots pueden y no pueden decir, esto puede presentar un obstáculo adicional en el equilibrio entre la innovación y el cumplimiento”, dijo Karapetyan.
¿Se está desarrollando la tecnología demasiado rápido?
Por otro lado, desde el punto de vista del experto, la introducción temprana de reglas corporativas claras también puede ser útil para reducir el riesgo de resultados inesperados. “Si China logra definir pautas claras en una etapa temprana, esto también brindará oportunidades”. Sin embargo, puede ser difícil orquestar una tecnología que se está desarrollando de manera tan rápida e inteligente. Cada día se denuncia cómo los internautas eluden los mecanismos de protección utilizados para controlar los bots.
Alibaba es el último ejemplo de una empresa china que tiene su propio script bot. Hace apenas un día, la empresa de inteligencia artificial con sede en Hong Kong, SenseTime, presentó su chatbot “SenseChat” en una demostración en vivo, a lo que el mercado de valores reaccionó con un fuerte aumento de precios. Y por último, pero no menos importante, el motor de búsqueda chino Baidu también mostró su chatbot “Ernie Bot”, que, sin embargo, provocó una caída en el entusiasmo y una caída en el precio de las acciones.
“Los bots chinos todavía están rezagados en este momento y se enfocan principalmente en el idioma chino”, dice Karapetyan, que se especializa en inteligencia artificial. Actualmente, ChatGPT, el software diseñado por la startup OpenAI y respaldado por Microsoft, es el “líder claro del mercado y el estándar de oro” entre los chatbots.
¿Cómo están respondiendo los gobiernos?
Los rivales de la industria tecnológica, Microsoft y ChatGPT, han estado bajo presión para hacer avanzar el negocio de la IA, incluso si el producto aún no está maduro. Al mismo tiempo, dado el rápido desarrollo, crece la presión sobre los gobiernos de todo el mundo para encontrar respuestas a la pregunta de cómo debe reaccionar la legislatura.
En los EE. UU., la Autoridad de Tecnología de la Información NTIA (“Administración Nacional de Telecomunicaciones e Información”) anunció hoy una consulta pública sobre la posible acción del gobierno. “Así como los alimentos y los automóviles solo ingresan al mercado cuando son seguros, los sistemas de inteligencia artificial deben asegurar al público, el gobierno y las empresas que son aptos para su propósito”, dijo en un comunicado. En última instancia, la autoridad podría recomendar evaluaciones de seguridad o certificación de IA a los políticos.
Italia ChatGPT establece una fecha límite
Las regulaciones gubernamentales sobre nuevas tecnologías también se están investigando en la Unión Europea. Recientemente, la Autoridad de Protección de Datos de Italia causó revuelo al prohibir ChatGPT en el país por el momento. Las principales preocupaciones fueron sobre la recolección masiva de datos personales y la protección de menores. Italia le dio a OpenAI 20 días para informar las acciones adicionales de la compañía. De lo contrario, podría haber una multa de hasta 20 millones de euros o el cuatro por ciento de las ventas anuales.
Hace dos años, la Comisión de la UE presentó un proyecto de reglamento de Amnistía Internacional que podría entrar en vigor este año. Paul Lukovic, jefe de investigación de inteligencia combinada en el Centro Alemán de Investigación de Inteligencia Artificial (DFKI), dice que también se necesita una regulación urgente en esta área. tagesschau.de. La tecnología cambiará el mundo de una manera inimaginable incluso hoy. Por lo tanto, uno simplemente no podía dejarlos correr salvajemente en el sentido de “crecimiento desenfrenado”.
Posible “marca de agua” para programas de Android
Lukowicz cree que se necesitan reglas más estrictas cuando la vida humana, la salud o la libertad se ven afectadas, pero no en otras áreas donde la tecnología no hace daño. El problema no es la investigación o el desarrollo, sino la cuestión de dónde utilizar la tecnología.
A largo plazo, Lukowicz podría imaginar una especie de “marca de agua” para el contenido generado por bots. En cuanto a las reglas de la inteligencia artificial, el experto la compara con la industria farmacéutica: incluso con los medicamentos, muy poca gente sabe cómo funcionan, pero funcionan. Se requieren estudios para los medicamentos, existen rigurosos procedimientos de aprobación y continúan los casos de daño por ellos. Desde el punto de vista de Lukowicz, lo principal es un análisis de costo-beneficio equilibrado.
More Stories
Informe de mercado: Las preocupaciones sobre los tipos de interés y las elecciones estadounidenses pesan sobre el DAX
90 casos de enfermedad en 13 estados: bacterias coliformes encontradas en McDonald’s
Gran pedido: Riyadh Air añade 60 aviones Airbus A321neo a su flota