Gary Marcus feliz de ayudar a regular la IA para el gobierno de EE. UU.: "Estoy interesado"


El martes de esta semana, el neurocientífico, fundador y autor Gary Marcus se sentó entre el director ejecutivo de OpenAI, Sam Altman, y Christina Montgomery, directora de fideicomiso de privacidad de IBM, mientras los tres testificaban durante más de tres horas ante el Comité Judicial del Senado. Los senadores se han centrado en gran medida en Altman porque actualmente dirige una de las empresas más poderosas del mundo y porque Altman les ha pedido repetidamente que lo ayuden a regular su trabajo. (La mayoría de los directores ejecutivos le piden al Congreso que deje su industria en paz).

Aunque Marcus ha sido un nombre familiar en los círculos académicos durante algún tiempo, su estrella ha ido en ascenso últimamente gracias a su boletín informativo (The Road to AI We Can Trust), un podcast (Humans vs. Machines) y su agradable trabajo Uneasiness sobre el aumento desenfrenado de la IA. Por ejemplo, además de la audiencia de esta semana, apareció en la televisión de Bloomberg este mes y ha aparecido en The New York Times Sunday Magazine y Wired, entre otros.

Debido a que la audiencia de esta semana parecía verdaderamente histórica en algunos aspectos: el senador Josh Hawley calificó a la IA como "una de las innovaciones más tecnológicas en la historia de la humanidad", mientras que el senador John Kennedy estaba tan enamorado de Altman que le pidió a Altman que eligiera sus propios reguladores. Queríamos haz eso también, habla con Marcus para discutir la experiencia y descubre lo que sabe sobre lo que sucederá a continuación.

¿Sigues en Washington?

Todavía estoy en Washington. Me estoy reuniendo con legisladores y su personal y varias otras personas interesantes y tratando de ver si podemos hacer realidad las cosas de las que he estado hablando.

Usted enseñó en la Universidad de Nueva York. Ha cofundado varias empresas de IA, incluida una con el famoso especialista en robótica Rodney Brooks. Entrevisté a Brooks en el escenario en 2017 y dijo en ese momento que no creía que Elon Musk realmente entendiera la IA y que pensaba que Musk estaba equivocado acerca de que la IA representaba una amenaza existencial.

Creo que Rod y yo compartimos el escepticismo sobre si la IA actual tiene algo que ver con la inteligencia artificial general. Hay varias cuestiones que debe desmontar. Una es ¿estamos cerca de AGI y la otra es qué tan peligrosa es la IA actual que tenemos? No creo que la IA actual que tenemos sea una amenaza existencial, pero es peligrosa. En muchos sentidos, creo que es una amenaza para la democracia. Esto no es una amenaza para la humanidad. No destruirá a todas las personas. Pero es un riesgo bastante serio.

Usted debatió esto no hace mucho Yann LeCun, científico jefe de inteligencia artificial de Meta. no estoy seguro de qué esta aleta ¿Se trataba del verdadero significado de las redes neuronales de aprendizaje profundo?

Así que LeCun y yo discutimos muchas cosas. muchos años. Tuvimos un debate público moderado por David Chalmers, el filósofo, en 2017. traté de unirme [LeCun] tener otro debate real desde entonces, y no lo hará. Prefiere twittearme en twitter y demás, que no creo que sea la forma más madura de tener conversaciones, pero como es una figura importante, respondo de todos modos.

Una cosa en la que no creo que podamos estar de acuerdo. [currently] Dicho esto, LeCun piensa que está bien usar esos [large language models] y que ningún daño puede ocurrir aquí. Creo que está completamente equivocado en eso. Existen amenazas potenciales para la democracia, que van desde la información errónea producida intencionalmente por malos actores hasta la información errónea accidental, como el profesor de derecho que fue acusado de acoso sexual cuando no lo cometió. [to the ability to] Moldean sutilmente las creencias políticas de las personas basándose en datos de formación que el público ni siquiera conoce. Es como las redes sociales, pero aún más insidiosas. También puedes usar estas herramientas para manipular a otras personas y probablemente engañarlas para que hagan lo que quieras. Puedes escalarlos masivamente. Definitivamente hay riesgos aquí.

Dijiste algo interesante sobre Sam Altman el martes, diciéndoles a los senadores que no les dijo cuál es su peor temor, al que llamas "Germane", y apuntándolos hacia él. Lo que todavía no ha dicho tiene nada que ver con las armas autónomas, de las que le hablé como principal preocupación hace unos años. Me pareció interesante que no se hablara de armas.

Hemos cubierto muchos temas, pero hay muchas cosas que no hemos logrado, incluida la aplicación, que es realmente importante, y la seguridad nacional y las armas autónomas y cosas por el estilo. habrá más de ellos [these].

¿Se habló de código abierto versus sistemas cerrados?

Apenas se mencionó. Obviamente es una pregunta realmente complicada e interesante. Realmente no está claro cuál es la respuesta correcta. Quieres que la gente haga ciencia independiente. Es posible que desee algún tipo de licencia para las cosas que se implementan a gran escala, pero conllevan riesgos especiales, incluidos los riesgos de seguridad. No está claro si queremos que todos los actores maliciosos tengan acceso a herramientas arbitrariamente poderosas. Así que hay argumentos a favor y en contra, y probablemente la respuesta correcta sea permitir cierto grado de código abierto, pero también algunas restricciones sobre lo que se puede hacer y cómo se puede proporcionar.

¿Alguna idea específica sobre la estrategia de Meta de exponer su modelo de lenguaje al mundo para que la gente juegue con él?

no creo que sea genial [Meta’s AI technology] Para ser honesto, LLaMA está ahí afuera. Creo que fue un poco descuidado. Y, ya sabes, ese es literalmente uno de los genios que sale de la botella. No había infraestructura legal; Que yo sepa, no han entrevistado a nadie sobre su trabajo. Tal vez lo hicieron, pero el proceso de toma de decisiones en esto, o digamos Bing, es básicamente esto: una empresa decide que hagamos esto.

Pero algunas de las cosas que las empresas deciden podrían hacer daño en el futuro cercano oa largo plazo. Así que creo que los gobiernos y los científicos deberían desempeñar cada vez más un papel en la decisión de lo que sucede ahí fuera. [through a kind of] FDA para IA, donde si desea realizar una implementación generalizada, primero debe realizar una prueba. Usted habla de las ventajas de costos. Haz otro intento. Y finalmente, si estamos convencidos de que los beneficios superan a los riesgos, [you do the] Publicación a gran escala. Pero en este momento, cualquier empresa puede optar por proporcionar algo a 100 millones de clientes en cualquier momento, sin ninguna supervisión gubernamental o académica. Debe existir un sistema en el que puedan intervenir autoridades imparciales.

¿De dónde vendrían estas autoridades imparciales? ¿No todos los que saben algo sobre cómo funcionan estas cosas ya trabajan para una empresa?

No soy. [Canadian computer scientist] Yoshua Bengio no lo es. Hay muchos científicos que no trabajan para estas empresas. Obtener suficientes probadores y darles un incentivo para hacerlo es una preocupación real. Pero aquí hay 100.000 informáticos con cierto nivel de experiencia. No todos trabajan para Google o Microsoft por contrato.

¿Le gustaría desempeñar un papel en esta agencia de IA?

Estoy interesado, creo que todo lo que construimos debe ser global y neutral, presumiblemente sin fines de lucro, y creo que tengo una buena voz neutral aquí que me gustaría compartir y tratar de llevarnos a un buen lugar para llevar.

¿Cómo se sintió al sentarse ante el Comité Judicial del Senado? ¿Y crees que te volverán a invitar?

No me sorprendería si me invitaran a volver, pero no tengo ni idea. Realmente me conmovió profundamente y me conmovió profundamente estar en esta sala. Supongo que es un poco más pequeño que en la televisión. Pero se sentía como si todos estuvieran allí tratando de hacer lo mejor para Estados Unidos, para la humanidad. Todos sabían lo importante que era el momento y, a decir de todos, los Senadores dieron su mejor juego. Sabíamos que estábamos allí por una razón e hicimos lo mejor que pudimos.



Si quieres conocer otros artículos parecidos a Gary Marcus feliz de ayudar a regular la IA para el gobierno de EE. UU.: "Estoy interesado" puedes visitar la categoría Noticias.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir