La equidad procesal puede abordar el problema de confianza/legitimidad de la IA generativa


El anunciado advenimiento de la IA generativa ha reavivado un debate familiar sobre la confianza y la seguridad: ¿se puede confiar en los líderes tecnológicos para que tengan en cuenta los mejores intereses de la sociedad?

Debido a que sus datos de entrenamiento son creados por humanos, la IA es inherentemente propensa al sesgo y, por lo tanto, está sujeta a nuestras propias formas imperfectas y emocionales de ver el mundo. Conocemos muy bien los riesgos, desde el aumento de la discriminación y las desigualdades raciales hasta la promoción de la polarización.

El CEO de OpenAI, Sam Altman, ha pidió “paciencia y buena fe” mientras trabajan para "hacerlo bien".

Durante décadas, confiamos pacientemente en los líderes tecnológicos a riesgo nuestro: lo lograron, así que les creímos cuando dijeron que podían solucionarlo. La confianza en las empresas de tecnología sigue cayendo y, según el Barómetro de confianza de Edelman de 2023, el 65 % de los encuestados de todo el mundo temen que la tecnología haga imposible saber si lo que la gente ve o escucha es real.

Es hora de que Silicon Valley adopte un enfoque diferente para ganarse nuestra confianza, uno que haya demostrado su eficacia en el sistema legal del país.

Índice del contenido

Un enfoque de justicia procesal para la confianza y la legitimidad

La justicia procesal, basada en la psicología social, se basa en investigaciones que muestran que las personas creen que las instituciones y los actores son más confiables y legítimos cuando son escuchados y experimentan una toma de decisiones neutral, imparcial y transparente.

Los cuatro componentes clave de la equidad procesal son:

  • Neutralidad: las decisiones son imparciales y se basan en consideraciones transparentes.
  • Respeto: Todos serán tratados con respeto y dignidad.
  • Voz: Todos tienen la oportunidad de contar su versión de la historia.
  • Confiabilidad: los tomadores de decisiones transmiten motivos confiables sobre aquellos afectados por sus decisiones.

Con este marco, la policía ha aumentado la confianza y la colaboración en sus comunidades, y algunas empresas de redes sociales están comenzando a utilizar estas ideas para dar forma a los enfoques de gobernanza y facilitación.

Aquí hay algunas ideas sobre cómo las empresas de IA pueden adaptar este marco para generar confianza y legitimidad.

Reúna al equipo correcto para responder las preguntas correctas

Como argumenta la profesora de UCLA Safiya Noble, los ingenieros solos no pueden resolver los problemas relacionados con el sesgo algorítmico porque son problemas sociales sistémicos que requieren perspectivas humanísticas, fuera de una organización, para la conversación social, el consenso y, en última instancia, la regulación, para garantizar tanto para usted como para usted. por el Estado.

En "Error del sistema: dónde salió mal la gran tecnología y cómo podemos reiniciarla", tres profesores de Stanford analizan críticamente las deficiencias de la educación en informática y la cultura de la ingeniería debido a su obsesión por la optimización, que a menudo deja de lado los valores que son fundamentales para una empujar a la sociedad democrática.

En una publicación de blog, Open AI dice que valora el aporte de la sociedad: “Debido a que los beneficios de AGI son tan grandes, no creemos que sea posible o deseable que la sociedad detenga su desarrollo para siempre; En cambio, la sociedad y los desarrolladores de AGI deben descubrir cómo hacerlo bien”.

Sin embargo, la página de contratación y el fundador de la empresa Los tuits de Sam Altman revelan que la compañía está contratando a una gran cantidad de ingenieros de aprendizaje automático y científicos informáticos porque "ChatGPT tiene una hoja de ruta ambiciosa y está obstaculizada por la tecnología".

¿Son estos informáticos e ingenieros capaces de tomar decisiones que, como decía OpenAI, “requieren mucha más cautela de la que normalmente toma la sociedad con las nuevas tecnologías”?

Las empresas de tecnología deben contratar equipos multidisciplinarios que incluyan científicos sociales que comprendan el impacto humano y social de la tecnología. Con una variedad de perspectivas para entrenar aplicaciones de IA e implementar parámetros de seguridad, las empresas pueden justificar sus decisiones de manera transparente. Esto, a su vez, puede hacer que el público perciba la tecnología como neutral y confiable.

Incluir perspectivas externas

Otro elemento de la equidad procesal es dar a las personas la oportunidad de participar en un proceso de toma de decisiones. En una publicación de blog reciente sobre cómo la compañía OpenAI está lidiando con el sesgo, la compañía dijo que busca "información externa sobre nuestra tecnología", citando un ejercicio reciente de Red Teaming, un proceso para evaluar el riesgo a través de un enfoque contradictorio.

Si bien la formación de equipos rojos es un proceso importante de evaluación de riesgos, debe incluir aportes externos. En el ejercicio Red Teaming de OpenAI, 82 de los 103 participantes eran empleados. De los 23 participantes restantes, la mayoría de los informáticos procedían en su mayoría de universidades occidentales. Para obtener diferentes puntos de vista, las organizaciones deben mirar más allá de su propia gente, disciplinas y geografía.

También pueden proporcionar comentarios más directos sobre los productos de IA al dar a los usuarios más control sobre el rendimiento de la IA. También puede considerar brindar oportunidades para comentarios públicos sobre nuevas políticas o cambios de productos.

Garantizar la transparencia

Las empresas deben asegurarse de que todas las reglas y los procesos de seguridad asociados sean transparentes y transmitan un fundamento confiable para la toma de decisiones. Por ejemplo, es importante educar al público sobre cómo se entrenan las aplicaciones, de dónde provienen los datos, el papel que juegan los humanos en el proceso de entrenamiento y qué capas de seguridad existen para minimizar el abuso.

Permitir que los investigadores prueben y comprendan los modelos de IA es clave para generar confianza.

Altman acertó en una entrevista reciente con ABC News cuando dijo: "Creo que la sociedad tiene un tiempo limitado para descubrir cómo responder a esto, cómo regularlo y cómo lidiar con esto".

A través de un enfoque de equidad procesal, las empresas que desarrollan plataformas de IA pueden involucrar a la sociedad en el proceso y ganar, no exigir, confianza y legitimidad, en lugar de recurrir a la opacidad y la fe ciega de los precursores de la tecnología.



Si quieres conocer otros artículos parecidos a La equidad procesal puede abordar el problema de confianza/legitimidad de la IA generativa puedes visitar la categoría Noticias.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir