Cómo la computación confidencial podría asegurar la adopción de la IA generativa


La IA generativa tiene el potencial de cambiarlo todo. Puede informar nuevos productos, empresas, industrias e incluso economías. Pero lo que los hace diferentes y mejores que la IA "tradicional" también podría hacerlos peligrosos.

Su capacidad única para crear ha planteado preocupaciones de seguridad y privacidad completamente nuevas.

Las empresas de repente tienen que hacerse nuevas preguntas: ¿Tengo los derechos sobre los datos de capacitación? al modelo? ¿A las salidas? ¿El sistema en sí tiene derechos sobre los datos creados en el futuro? ¿Cómo se protegen los derechos de este sistema? ¿Cómo controlo la privacidad en un modelo usando IA generativa? La lista continua.

No sorprende que muchas empresas estén actuando con cautela. Las vulnerabilidades obvias de seguridad y privacidad, así como la renuencia a confiar en las soluciones Band-Aid existentes, han llevado a muchos a prohibir estas herramientas por completo. Pero hay esperanza.

La informática confidencial, un nuevo enfoque de la seguridad de los datos que protege los datos mientras están en uso y garantiza la integridad del código, es la respuesta a las preocupaciones de seguridad más complejas y serias de los modelos de lenguaje grandes (LLM). Su objetivo es ayudar a las empresas a aprovechar todo el poder de la IA generativa sin comprometer la seguridad. Antes de explicar, primero echemos un vistazo a lo que hace que la IA generativa sea particularmente vulnerable.

La IA generativa es capaz de integrar los datos de toda una empresa, o incluso un subconjunto rico en conocimientos, en un modelo inteligente consultable que proporciona de inmediato nuevas ideas. Si bien esto tiene un tremendo atractivo, también hace que sea extremadamente difícil para las organizaciones mantener el control de sus datos patentados y cumplir con los requisitos normativos en evolución.

La protección de los datos y modelos de entrenamiento debe ser una prioridad máxima; Cifrar campos en bases de datos o filas en un formulario ya no es suficiente.

Esta concentración de conocimiento y los resultados generativos resultantes, sin la seguridad adecuada de los datos y los controles de confianza, podrían dar lugar a que la IA generativa se utilice involuntariamente como arma para el abuso, el robo y la explotación ilícita.

De hecho, los empleados introducen cada vez más documentos comerciales confidenciales, datos de clientes, código fuente y otra información regulada en los LLM. Debido a que estos modelos están parcialmente entrenados en nuevas entradas, una infracción podría resultar en pérdidas significativas de propiedad intelectual. Y si los propios modelos se ven comprometidos, cualquier contenido que una empresa esté legal o contractualmente obligada a proteger también podría filtrarse. En el peor de los casos, robar un modelo y sus datos permitiría a un competidor o actor de un estado-nación duplicar todo y robar esos datos.

Las apuestas son altas. Gartner descubrió recientemente que el 41 % de las organizaciones han experimentado una filtración de datos de IA o un incidente de seguridad, y más de la mitad de ellos son el resultado de una filtración de datos por parte de una parte interna. El advenimiento de la IA generativa seguramente aumentará estos números.

Además, las organizaciones también deben mantenerse al día con las regulaciones de privacidad en evolución cuando invierten en IA generativa. En todas las industrias existe una gran responsabilidad e incentivo para cumplir con los requisitos de datos. En el cuidado de la salud, por ejemplo, la medicina personalizada impulsada por IA tiene un gran potencial cuando se trata de mejorar los resultados de los pacientes y la eficiencia general. Pero los proveedores y los investigadores necesitan acceder y trabajar con grandes cantidades de datos confidenciales de pacientes mientras cumplen con las regulaciones, lo que presenta un nuevo dilema.

Para enfrentar estos desafíos y todos los demás que inevitablemente surgirán, la IA generativa necesita una nueva base de seguridad. La protección de los datos y modelos de entrenamiento debe ser una prioridad máxima; Cifrar campos en bases de datos o filas en un formulario ya no es suficiente.

En escenarios donde los resultados de la IA generativa se utilizan para tomar decisiones importantes, demostrar la integridad del código y los datos, y la confianza que inspiran, es fundamental, tanto para el cumplimiento como para la gestión de posibles responsabilidades legales. Debe haber una manera de proteger completamente todo el cálculo y el estado en el que se realiza.

Índice del contenido

El advenimiento de la IA generativa "confidencial"

Confidential Computing ofrece una forma simple pero extremadamente poderosa de solucionar un problema que de otro modo parecería irresoluble. Con la computación confidencial, los datos y la IP están completamente aislados de los propietarios de la infraestructura y solo están expuestos a aplicaciones confiables que se ejecutan en CPU confiables. El cifrado también garantiza la protección de datos durante la ejecución.

La seguridad y la privacidad de los datos se están convirtiendo en atributos esenciales de la computación en la nube, tanto que incluso si un atacante malicioso viola los datos de la infraestructura, la IP y el código son completamente invisibles para el atacante. Esto es perfecto para la IA generativa y mitiga sus riesgos de seguridad, privacidad y ataques.

La informática confidencial ha adquirido una importancia cada vez mayor como factor de cambio en la seguridad. Todos los principales proveedores de la nube y fabricantes de chips están invirtiendo en la solución, y los líderes de Azure, AWS y GCP proclaman su eficacia. Ahora, la misma tecnología que está transformando incluso a los negadores de la nube más obstinados podría ser la solución que seguramente permitirá que la IA generativa se abra paso. Los líderes deben comenzar a tomarlo en serio y comprender sus profundas implicaciones.

La computación confidencial brinda a las organizaciones la tranquilidad de saber que los modelos generativos de IA solo aprenden sobre los datos que desean usar y nada más. La capacitación con conjuntos de datos privados en una red de fuentes confiables en todas las nubes brinda control y seguridad completos. Toda la información, ya sea de entrada o de salida, permanece completamente protegida y detrás de las cuatro paredes de la empresa.

Si quieres conocer otros artículos parecidos a Cómo la computación confidencial podría asegurar la adopción de la IA generativa puedes visitar la categoría Noticias.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir