Esta semana en AI: las empresas se someten voluntariamente a las pautas de AI, por ahora


Mantenerse al día con una industria tan acelerada como la IA es un gran desafío. Hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de las últimas historias del mundo del aprendizaje automático, así como investigaciones y experimentos notables que no hemos cubierto solos.

Esta semana en AI, vimos que OpenAI, Anthropic, Google, Inflection, Microsoft, Meta y Amazon se comprometieron voluntariamente con los objetivos compartidos de seguridad y transparencia de AI antes de una propuesta de orden ejecutiva de la administración Biden.

Como escribe mi colega Devin Coldewey, aquí no se proponen normas ni medidas de aplicación; las prácticas acordadas son puramente voluntarias. Pero las promesas describen los enfoques y lineamientos regulatorios de la IA que cualquier proveedor, tanto en los EE. UU. como en el extranjero, podría encontrar modificables.

Entre otras cosas, las empresas acordaron voluntariamente realizar pruebas de seguridad de los sistemas de IA antes de la publicación, compartir información sobre técnicas de defensa de IA y desarrollar técnicas de marca de agua que faciliten la identificación del contenido generado por IA. También dijeron que invertirían en seguridad cibernética para proteger los datos privados de IA y facilitar el informe de vulnerabilidades, y priorizarían la investigación sobre riesgos sociales, como el sesgo sistémico y los problemas de privacidad.

Los compromisos son sin duda un paso importante, incluso si no son exigibles. Uno se pregunta, sin embargo, si los firmantes tienen motivos ocultos.

Según se informa, OpenAI escribió un memorando de política interna que indica que la compañía apoya la idea de exigir licencias gubernamentales a cualquier persona que quiera desarrollar sistemas de IA. El CEO Sam Altman planteó la idea por primera vez en una audiencia del Senado de los EE. UU. en mayo, donde apoyó la creación de una agencia que podría otorgar licencias a los productos de IA y revocarlos si alguien infringe las reglas establecidas.

En una entrevista reciente con la prensa, Anna Makanju, Vicepresidenta de Asuntos Globales de OpenAI, enfatizó que OpenAI no impulsa las licencias y que la compañía solo admite sistemas de licencias para modelos de IA que son más potentes que el GPT-4 actual de OpenAI. Pero las licencias emitidas por el gobierno, en caso de que se implementen de la manera que propone OpenAI, preparan el escenario para un conflicto potencial con las nuevas empresas y los desarrolladores de código abierto, quienes pueden verlos como un intento de dificultar que otros entren en el espacio.

Creo que Devin lo expresó mejor cuando me lo describió como "tirar clavos en el camino detrás de ti en una carrera". Como mínimo, ilustra la duplicidad de las empresas de IA detrás de escena que intentan apaciguar a los reguladores mientras configuran la política a su favor (en este caso, penalizando a los pequeños retadores).

Es una condición preocupante. Pero si los formuladores de políticas hacen un esfuerzo, todavía hay esperanza de salvaguardas adecuadas sin interferencia indebida del sector privado.

Aquí hay otras historias notables de IA de los últimos días:

  • Renuncia el jefe de confianza y seguridad de OpenAI: Dave Willner, un veterano de la industria y líder de confianza y seguridad en OpenAI, anunció en una publicación en LinkedIn que dejó el trabajo y asumió un rol de consultor. OpenAI dijo en un comunicado que está buscando un reemplazo y que el CTO Mira Murati liderará el equipo de manera interina.
  • Instrucciones ajustadas para ChatGPT: En otras noticias de OpenAI, la compañía introdujo instrucciones personalizadas para los usuarios de ChatGPT para que no tengan que escribir las mismas instrucciones al chatbot cada vez que interactúan con el chatbot.
  • Google AI para redactar mensajes: Según un nuevo informe de The New York Times, Google está probando una herramienta que usa IA para escribir mensajes y ha comenzado a mostrarla en publicaciones. El gigante tecnológico ha presentado el sistema de inteligencia artificial al New York Times, el Washington Post y el propietario del Wall Street Journal, News Corp.
  • Apple está probando un chatbot similar a ChatGPT: Según un nuevo informe de Mark Gurman de Bloomberg, Apple está desarrollando IA para desafiar a OpenAI, Google y otros. Específicamente, el gigante tecnológico ha desarrollado un chatbot al que algunos ingenieros se refieren internamente como "Apple GPT".
  • Meta lanza Llama 2: Meta presentó Llama 2, una nueva familia de modelos de IA diseñados para impulsar aplicaciones modeladas a partir de ChatGPT de OpenAI, Bing Chat y otros chatbots modernos. Según una combinación de datos disponibles públicamente, Meta afirma que el rendimiento de Llama 2 ha mejorado significativamente en comparación con la generación anterior de modelos Llama.
  • Los autores protestan contra la IA generativa: Los sistemas de IA generativa como ChatGPT están entrenados en datos disponibles públicamente, incluidos libros, y no todos los creadores de contenido están contentos con el arreglo. En una carta abierta firmada por más de 8500 autores de ficción, no ficción y poesía, las empresas tecnológicas detrás de los principales modelos de lenguaje como ChatGPT, Bard, LLaMa y otros son responsables por usar sus textos sin permiso ni compensación.
  • Microsoft trae Bing Chat a la empresa: En su conferencia anual Inspire, Microsoft anunció Bing Chat Enterprise, una versión de su chatbot impulsado por IA, Bing Chat, con controles de gobernanza y privacidad centrados en el negocio. Bing Chat Enterprise no almacena datos de chat, Microsoft no puede ver los datos comerciales o de empleados de un cliente, y los datos de los clientes no se usan para entrenar los modelos de IA subyacentes.
Índice del contenido

Más aprendizaje automático

Técnicamente, esto también fue una noticia, pero merece una mención aquí en la sección de investigación. Fable Studios, que previamente produjo cortometrajes CG y 3D para realidad virtual y otros medios, presentó un modelo de IA llamado Showrunner que (según sus propias declaraciones) puede escribir, dirigir, protagonizar y editar un programa de televisión completo; en su demostración, fue South Park.

Estoy en conflicto con eso. Por un lado, creo que es bastante desagradable incluso perseguir esto, y mucho menos durante una gran huelga de Hollywood que involucra problemas de compensación e inteligencia artificial. Aunque el director ejecutivo Edward Saatchi dijo que cree que la herramienta pone el poder en manos de los creadores, también se puede decir lo contrario. En cualquier caso, no cayó particularmente bien en la industria.

Por otro lado, si alguien en el lado creativo (como Saatchi) no está explorando y demostrando estas habilidades, serán exploradas y demostradas por otros que tienen menos inhibiciones para usarlas. Si bien las afirmaciones que hace Fable son un poco de gran alcance en comparación con lo que realmente mostraron (lo que trae consigo serias advertencias), es similar al DALL-E original en que, a pesar de no ser un sustituto de un artista real, generó discusión y preocupación real. La IA tendrá un lugar en la producción de medios de una forma u otra, pero debe abordarse con precaución por una gran cantidad de razones.

En el aspecto político, hace un tiempo aprobamos la Ley de Autorización de la Defensa Nacional, que (como de costumbre) incluía algunos cambios de política no relacionados con la defensa realmente ridículos. Sin embargo, esto incluyó la adición de que el gobierno debe organizar un evento en el que los investigadores y las empresas puedan hacer todo lo posible para detectar contenido generado por IA. Algo como esto definitivamente se está acercando al nivel de una "crisis nacional", por lo que probablemente sea algo bueno que haya sido introducido de contrabando.

En Disney Research, siempre están tratando de cerrar la brecha entre lo digital y lo real, presumiblemente para fines del parque. En este caso, desarrollaron una forma de mapear el movimiento virtual o la captura de movimiento de un personaje (por ejemplo, para un perro CG en una película) en un robot real, incluso si ese robot tiene una forma o tamaño diferente. Se basa en dos sistemas de optimización que se informan entre sí sobre lo ideal y lo posible, algo así como un pequeño ego y un superego. Esto debería hacer que sea mucho más fácil lograr que los perros robot actúen como perros normales, pero, por supuesto, también se puede aplicar a otras cosas.

Y esperamos que la IA pueda ayudarnos a mantener al mundo alejado de la minería del fondo marino en busca de minerales, porque definitivamente es una mala idea. En un estudio multiinstitucional, la capacidad de AI para distinguir la señal del ruido se utilizó para predecir la ubicación de minerales valiosos en todo el mundo. Como escriben en el resumen:

En este trabajo, abordamos la complejidad y el "desorden" inherente de los sistemas geológicos, químicos y biológicos entrelazados de nuestro planeta mediante el uso del aprendizaje automático para caracterizar los patrones integrados en la multidimensionalidad de la presencia de minerales y las asociaciones de minerales.

El estudio ha predicho y confirmado ubicaciones de uranio, litio y otros minerales valiosos. Y, por último, qué tal esto: el sistema "mejorará nuestra comprensión de la mineralización y los entornos de mineralización en la Tierra, en nuestro sistema solar y con el tiempo". Impresionante.

Si quieres conocer otros artículos parecidos a Esta semana en AI: las empresas se someten voluntariamente a las pautas de AI, por ahora puedes visitar la categoría Noticias.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir