Europa quiere que las plataformas marquen el contenido generado por IA para luchar contra la desinformación
La Unión Europea está pidiendo a los signatarios de su código de conducta sobre desinformación en línea que marquen las falsificaciones profundas y otro contenido generado por IA.
En un comunicado de ayer tras una reunión con los más de 40 signatarios del código, la comisaria de Valores y Transparencia de la UE, Vera Jourova, dijo que aquellos comprometidos con la lucha contra la desinformación deberían adoptar tecnologías para orientar el contenido de IA, reconocerlo y etiquetarlo claramente para los usuarios.
“Las nuevas tecnologías de IA pueden ser una fuerza impulsora y ofrecer nuevas vías para una mayor eficiencia y expresión creativa. Pero como siempre, debemos mencionar las desventajas de este asunto y también traen nuevos riesgos y el potencial de consecuencias negativas para la sociedad”, advirtió. “Incluso cuando se trata de crear y difundir desinformación.
“Los chatbots avanzados como ChatGPT son capaces de crear contenido e imágenes complejos y aparentemente bien fundados en cuestión de segundos. Los generadores de imágenes pueden crear imágenes de apariencia auténtica de eventos que nunca sucedieron. El software de generación de voz puede imitar la voz de una persona basándose en una muestra de unos pocos segundos. Las nuevas tecnologías también plantean nuevos retos en la lucha contra la desinformación. Así que hoy les pedí a los firmantes que crearan su propia sección separada dentro del código para discutirlo”.
La versión actual del código, que la UE endureció el verano pasado, cuando también confirmó que tiene la intención de hacer del instrumento voluntario un remedio que cuente para el cumplimiento de la Ley de Servicios Digitales (DSA) (jurídicamente vinculante), actualmente no requiere la identificación y etiquetado de deepfakes. Pero la Comisión espera cambiar eso.
El comisionado dijo que vio dos puntos de discusión principales para incluir medidas correctivas para el contenido generado por IA en el código: uno se centraría en los servicios que integran IA generativa, como New Bing de Microsoft o los servicios de búsqueda mejorados por IA Bard de Google; “establecer las salvaguardas necesarias para evitar que estos servicios sean utilizados por actores malintencionados para generar desinformación”.
Un segundo paso requeriría que los signatarios que tengan servicios que tengan el potencial de difundir desinformación generada por IA "adopten tecnologías para detectar dicho contenido y etiquetarlo claramente para los usuarios".
Jourova dijo que habló con Sundar Pichai de Google y se enteró de que Google tiene tecnología que puede reconocer contenido de texto generado por IA, pero también que la compañía está desarrollando la tecnología para mejorar sus capacidades.
En comentarios adicionales durante una sesión de preguntas y respuestas, el comisionado dijo que la UE quiere que las etiquetas para falsificaciones profundas y otro contenido generado por IA sean claras y rápidas, para que los usuarios comunes puedan comprender de inmediato que el contenido que está dirigido a ellos se presenta. , esto lo ha hecho una máquina, no una persona.
También aclaró que la Comisión quiere que las plataformas implementen la etiqueta ahora, "inmediatamente".
Si bien la DSA tiene algunas disposiciones que obligan a las plataformas en línea muy grandes (VLOP) a etiquetar el contenido de audio y visual manipulado, Jourova dijo que la idea de incluir una etiqueta en el código de desinformación es que podría hacerlo incluso antes de que suceda en agosto. 25, la fecha límite de cumplimiento para los VLOP en virtud de la DSA.
“He dicho muchas veces que nuestra principal responsabilidad es proteger la libertad de expresión. Pero cuando se trata de la producción de IA, no veo ningún derecho a la libertad de expresión de las máquinas. Y con eso volvemos a los buenos viejos pilares de nuestra ley. Y por eso queremos seguir trabajando en ello, también en el marco del código de conducta, a partir de esta idea tan básica”, agregó.
La Comisión también espera tomar medidas para informar los riesgos de desinformación generados por IA durante el próximo mes. Jourova dijo que los signatarios relevantes deberían usar los informes de julio para "educar al público sobre las medidas de seguridad que están tomando para evitar la propagación del abuso generativo de IA".
El código de desinformación ahora tiene un total de 44 signatarios, incluidos gigantes tecnológicos como Google, Facebook y Microsoft, así como empresas de tecnología publicitaria más pequeñas y organizaciones de la sociedad civil, un número que aumenta de las 34 personas que habían firmado los compromisos en junio de 2022.
Sin embargo, a fines del mes pasado, Twitter tomó la medida inusual de retirarse del código voluntario de la UE.
Otros temas clave que Jourova planteó en su reunión con los signatarios restantes ayer, instándolos a tomar más medidas, incluyeron la propaganda de guerra de Rusia y la desinformación pro-Kremlin; la necesidad de moderación "consistente" y verificación de hechos; esfuerzos de seguridad electoral; y el acceso a los datos para los investigadores.
“Todavía hay demasiado contenido peligroso de desinformación y capacidad insuficiente en las plataformas”, advirtió, citando una queja de larga data de la Comisión de que las iniciativas de verificación de hechos no se están aplicando ampliamente al contenido traducido a todos los idiomas hablados en la UE se dirige a los estados miembros, incluidas las naciones más pequeñas.
“Los países de Europa Central y del Este en particular están bajo el ataque constante de fuentes de desinformación en su mayoría rusas”, agregó. "Hay mucho por hacer. Se trata de habilidades, se trata de nuestro conocimiento, se trata de nuestra comprensión del idioma. Y también comprender las razones por las que en algunos Estados miembros está el caldo de cultivo o el suelo preparado para absorber grandes trozos de desinformación”.
También enfatizó que el acceso para los investigadores aún es insuficiente, y pidió a las plataformas que intensifiquen sus esfuerzos sobre los datos para la investigación.
Jourova también agregó algunas palabras de advertencia sobre el camino elegido por Elon Musk, lo que sugiere que Twitter se ha encontrado en la mira de la aplicación de la UE como un VLOP designado bajo la DSA.
La DSA requiere legalmente que los VLOP evalúen y mitiguen los riesgos sociales, como la desinformación. Es por eso que Twitter invita a las reprimendas y sanciones por ignorar el Código de la UE (las multas bajo la DSA pueden ser de hasta el 6% de los ingresos globales anuales).
“A partir de agosto de este año, nuestras estructuras, que asumirán el papel de ejecutores de la DSA, revisarán el desempeño de Twitter para determinar si cumplen, si están tomando las medidas necesarias para mitigar los riesgos y tomar medidas contra... especialmente contenido ilegal. ', continuó advirtiendo.
“La Unión Europea no es donde queremos ver leyes importadas de California”, agregó. "Lo hemos dicho muchas veces y por eso también quiero volver y agradecer la colaboración con los... ex-empleados de Twitter que trabajaron con nosotros. [for] durante varios años sobre el código de conducta contra el discurso de odio y el código de conducta [on disinformation] así como también. Lo lamentamos. Creo que Twitter tenía gente muy informada y determinada que entendió que tiene que haber alguna responsabilidad, una responsabilidad mucho mayor, en el sitio de plataformas como Twitter”.
Cuando se le preguntó si el enfoque de las Notas de la comunidad de Twitter, que externaliza (básicamente) la verificación de hechos a los usuarios de Twitter cuando suficientes personas contribuyen a crear consenso sobre el contexto de los tuits controvertidos, solo Jourova dijo que corresponde a las agencias de aplicación de la Comisión evaluar si cumplir con las reglas de la DSA.
Sin embargo, señaló que la retirada de Twitter del código fue un paso significativo en la dirección equivocada y agregó: "El código de conducta es reconocido como una medida de mitigación muy seria y confiable contra el contenido dañino".
Si quieres conocer otros artículos parecidos a Europa quiere que las plataformas marquen el contenido generado por IA para luchar contra la desinformación puedes visitar la categoría Noticias.
Deja una respuesta