Por qué la regulación inteligente de la IA es fundamental para la innovación y el liderazgo de EE. UU.


Cuando era adolescente, estuve muy involucrado con la ciencia ficción. Aunque las visiones de muchas películas y novelas no se han hecho realidad, todavía me sorprende la capacidad del legendario escritor Isaac Asimov para imaginar un futuro de inteligencia artificial y robótica. Ahora, en medio de todo el revuelo que rodea a la IA generativa y otras herramientas de IA, es hora de que sigamos el ejemplo de Asimov y escribamos un nuevo libro de reglas.

Por supuesto, las reglas de la IA para el siglo XXI no serán tan simples como las Tres reglas de la robótica de Asimov (popularizadas en "Yo, robot"). Pero con las preocupaciones sobre el auge de las herramientas de IA y el pedido equivocado de una moratoria en la investigación avanzada de IA, la industria puede y debe impulsar reglas para el desarrollo responsable de IA. Ciertamente, los avances tecnológicos del último siglo nos han dado una amplia experiencia en la evaluación tanto de los beneficios de los avances tecnológicos como de los peligros potenciales.

La tecnología en sí es neutral. La forma en que lo usamos, y las barandillas que construimos a su alrededor, determina su impacto. Como humanos, aprovechar el poder del fuego nos permitió mantenernos calientes y prolongar la vida útil de los alimentos. Pero el fuego todavía puede ser destructivo.

Considere cómo los recientes incendios forestales en Canadá amenazaron la vida y la propiedad en Canadá y afectaron la calidad del aire en los EE. UU. La energía nuclear en forma de bombas atómicas mató a miles en Japón durante la Segunda Guerra Mundial, pero la energía nuclear está iluminando gran parte de Francia y alimentando a los portaaviones estadounidenses.

Estamos en un momento decisivo para el futuro de una tecnología asombrosa, compleja y trascendental. No podemos darnos el lujo de dejar que otros países lideren.

En el caso de la IA, las nuevas herramientas y plataformas pueden resolver grandes problemas globales y crear conocimiento valioso. En una reunión reciente de directores de información del área de Detroit, los asistentes compartieron cómo la IA generativa ya está reduciendo el tiempo de comercialización y haciendo que sus empresas sean más competitivas.

La IA generativa nos ayudará a “escuchar” a diferentes especies animales. La IA mejorará nuestra salud al ayudar al descubrimiento de fármacos y al diagnóstico de enfermedades. Herramientas similares ofrecen de todo, desde atención personalizada para personas mayores hasta hacer que nuestros hogares sean más seguros. Además, la IA mejorará nuestra productividad. Un nuevo estudio de McKinsey muestra que la IA generativa podría impulsar la economía mundial en 4,4 billones de dólares al año.

Con todas estas posibilidades, ¿una tecnología tan asombrosa también puede ser mala? Algunas de las preocupaciones en torno a las plataformas de IA son válidas. Deberíamos preocuparnos por el riesgo de falsificaciones profundas, manipulación política y fraude a las poblaciones vulnerables, pero también podemos usar la IA para detectar, interceptar y bloquear intrusiones cibernéticas maliciosas. Tanto los obstáculos como las soluciones pueden ser difíciles y complejas, y debemos trabajar en ellos.

Algunos también pueden ser simples; Ya estamos viendo escuelas que experimentan con exámenes orales para probar el conocimiento de un estudiante. Si abordamos estos problemas de frente, en lugar de enterrar la cabeza en la arena y hacer una pausa en la investigación que sería imposible de hacer cumplir y podría ser explotada por actores malintencionados, Estados Unidos ocupará una posición de liderazgo en el escenario mundial.

Si bien el enfoque de EE. UU. hacia la IA ha sido mixto, otros países parecen estar atrapados en una carrera hiperregulatoria. La UE está a punto de aprobar una amplia ley de IA que obligaría a las empresas a pedir permiso para innovar. En la práctica, eso significaría que solo el gobierno o las grandes corporaciones que tienen los medios financieros y la capacidad para pagar el laberinto de certificación de privacidad, propiedad intelectual y una variedad de requisitos de protección social podrían desarrollar nuevas herramientas de IA.

Un estudio reciente de la Universidad de Stanford también encontró que la ley de IA de la UE prohibiría todos los principales modelos de lenguaje actualmente en vigor, incluidos GPT-4 de OpenAI y Bard de Google. Los legisladores canadienses están impulsando un proyecto de ley de IA demasiado amplio que también podría sofocar la innovación. Lo más preocupante es que China está luchando rápidamente por el dominio de la IA civil y militar, con un apoyo masivo del gobierno. Además, la empresa tiene una perspectiva diferente sobre los derechos humanos y la privacidad que podría ayudar a sus esfuerzos de IA, pero que está en desacuerdo con nuestros valores. Estados Unidos debe actuar para proteger a los ciudadanos e impulsar la innovación en IA o nos quedaremos atrás.

¿Cómo se vería eso? Primero, Estados Unidos necesita una ley de privacidad federal preventiva. El mosaico actual de regulaciones estatales significa que los datos se tratan de manera diferente cada vez que "cruzan" una línea invisible, lo que genera confusión y obstáculos de cumplimiento para las pequeñas empresas. Necesitamos una ley nacional de protección de datos con pautas y estándares claros sobre cómo las empresas recopilan, usan y comparten datos. Esto también ayudaría a brindar transparencia a los consumidores y garantizaría que las empresas puedan inspirar confianza a medida que crece la economía digital.

También necesitamos un conjunto de principios para el uso responsable de la IA. Si bien prefiero menos regulación, la gestión de nuevas tecnologías como la IA requiere reglas claras que definan cómo se puede desarrollar e implementar esa tecnología. Con las nuevas innovaciones en IA que se revelan casi a diario, los legisladores deben centrarse en las barandillas y los resultados en lugar de tratar de contener tecnologías específicas.

Las reglas también deben considerar el nivel de riesgo y centrarse en los sistemas de inteligencia artificial que podrían afectar significativamente los derechos fundamentales de los estadounidenses o el acceso a los servicios esenciales. A medida que nuestro gobierno define cómo es la "buena política", la industria tiene un papel crucial que desempeñar. La Consumer Technology Association trabaja en estrecha colaboración con la industria y los legisladores para desarrollar principios comunes para el uso de la IA.

Estamos en un momento decisivo para el futuro de una tecnología asombrosa, compleja y trascendental. No podemos darnos el lujo de dejar que otros países lideren.

Si quieres conocer otros artículos parecidos a Por qué la regulación inteligente de la IA es fundamental para la innovación y el liderazgo de EE. UU. puedes visitar la categoría Noticias.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir