AI corta, fluye y se vuelve verde - TechCrunch


La investigación en el campo del aprendizaje automático y la IA, ahora una tecnología clave en prácticamente todas las industrias y todas las empresas, es demasiado extensa para que alguien la lea en su totalidad. Esta columna tiene como objetivo recopilar algunos de los descubrimientos y artículos recientes más relevantes, particularmente en inteligencia artificial, entre otros, y explicar por qué son importantes.

Esta semana, las aplicaciones de IA se han encontrado en varios nichos inesperados, debido a su capacidad para clasificar grandes cantidades de datos o, alternativamente, hacer predicciones razonables basadas en evidencia limitada.

Hemos visto que los modelos de aprendizaje automático toman grandes conjuntos de datos en biotecnología y finanzas, pero los investigadores de ETH Zurich y LMU Munich están aplicando técnicas similares a los datos generados por proyectos de desarrollo internacional, como ayuda en caso de desastres y vivienda. El equipo entrenó su modelo en millones de proyectos (con una financiación de 2,8 billones de dólares) durante los últimos 20 años, un enorme conjunto de datos demasiado complejo para analizarlo en detalle manualmente.

“Puede pensar en el proceso como intentar leer una biblioteca completa y clasificar libros similares en estantes de temas específicos. Nuestro algoritmo tiene en cuenta 200 dimensiones diferentes para determinar qué tan similares son estos 3,2 millones de proyectos entre sí, una carga de trabajo imposible para un ser humano”, dice el autor del estudio, Malte Toetzke.

Las tendencias de muy alto nivel sugieren que el gasto en inclusión y diversidad ha aumentado, mientras que el gasto climático ha disminuido sorprendentemente en los últimos años. Puede examinar el conjunto de datos y las tendencias que analizaron aquí.

Otra área en la que pocos piensan es la gran cantidad de piezas y componentes de máquinas que diferentes industrias están produciendo a un ritmo vertiginoso. Algunos se pueden reutilizar, algunos reciclar, otros deben desecharse de manera responsable, pero hay demasiados para que los especialistas humanos los analicen. La empresa alemana de investigación y desarrollo Fraunhofer ha desarrollado un modelo de aprendizaje automático para identificar piezas para que puedan usarse en lugar de ir al depósito de chatarra.

Una parte se sienta en una mesa como parte de una demostración de una IA de identificación.

Autor de la foto: Fraunhofer

El sistema se basa en vistas de cámara más que ordinarias, ya que las piezas pueden parecer similares pero pueden ser muy diferentes, o mecánicamente idénticas pero visualmente diferentes debido al óxido o al desgaste. Cada parte también se pesa y escanea con cámaras 3D, y también se incluyen metadatos como el origen. Luego, el modelo sugiere lo que cree que es la pieza, por lo que el humano que la inspecciona no tiene que comenzar desde cero. Este método de identificación compatible con IA pronto debería ahorrar decenas de miles de piezas y acelerar el procesamiento de millones.

Los físicos han encontrado una forma interesante de aplicar las cualidades de ML a un problema de siglos de antigüedad. Esencialmente, los investigadores siempre están buscando formas de demostrar que las ecuaciones que rigen la dinámica de fluidos (algunas de las cuales, como la de Euler, datan del siglo XVIII) están incompletas, que se rompen en ciertos extremos. Esto es difícil, si no imposible, con las técnicas computacionales convencionales. Sin embargo, investigadores del CIT y de la Universidad Hang Seng de Hong Kong proponen un nuevo método de aprendizaje profundo para aislar casos probables de singularidades de dinámica de fluidos, mientras que otros aplican la técnica al campo de otras formas. Este artículo de Quanta explica bastante bien este interesante desarrollo.

Otro concepto centenario para obtener una capa ML es kirigami, el arte de cortar papel con el que muchos están familiarizados en el contexto de hacer copos de nieve de papel. La técnica data de hace siglos, particularmente en Japón y China, y puede producir estructuras notablemente complejas y flexibles. Los investigadores de Argonne National Labs se inspiraron en el concepto para teorizar un material 2D que puede contener componentes electrónicos en una escala microscópica pero que también se dobla fácilmente.

El equipo había realizado manualmente decenas de miles de experimentos con 1-6 cortes y utilizó esos datos para entrenar el modelo. Luego utilizaron una supercomputadora del Departamento de Energía para ejecutar simulaciones hasta el nivel molecular. En segundos, produjo una variante de 10 cortes con un 40 por ciento de estiramiento, mucho más allá de lo que el equipo esperaba o incluso intentó.

Simulación de moléculas formando un material 2D estirable.

Autor de la foto: Laboratorios Nacionales de Argonne

"Descubrió cosas que nunca le dijimos que averiguara. Aprendió algo, como aprende un ser humano, y usó lo que sabía para hacer otra cosa", dijo el líder del proyecto, Pankaj Rajak. El éxito los ha impulsado a aumentar la complejidad y el alcance de la simulación.

Otra extrapolación interesante realizada por una IA especialmente entrenada es un modelo de visión por computadora que reconstruye los datos de color a partir de entradas infrarrojas. Normalmente, una cámara IR no sabe de qué color es un objeto en el espectro visible. Pero este experimento encontró correlaciones entre bandas IR específicas y las visibles, y construyó un modelo para convertir imágenes de rostros humanos capturados en IR en otras que se aproximan al espectro visible.

Todavía es solo una prueba de concepto, pero tal flexibilidad de espectro podría ser una herramienta útil en ciencia y fotografía.

Mientras tanto, un nuevo estudio del que es coautor Jeff Dean, jefe de IA de Google, contradice la noción de que la IA es un esfuerzo ambientalmente costoso debido a sus altas demandas computacionales. Si bien algunas investigaciones han encontrado que entrenar un modelo grande como GPT-3 de OpenAI puede generar emisiones de carbono equivalente a Comparado con el de un vecindario pequeño, el estudio vinculado a Google afirma que "seguir las mejores prácticas" puede reducir las emisiones de carbono del aprendizaje automático en 1000 veces.

Las prácticas en cuestión se relacionan con los tipos de modelos utilizados, las máquinas utilizadas para entrenar los modelos, la "mecanización" (por ejemplo, computación en la nube versus computadoras locales) y "mapa" (selección de ubicaciones de centros de datos con la energía más limpia). Según los coautores, la simple elección de modelos "eficientes" puede reducir el esfuerzo computacional en factores de 5 a 10, mientras que el uso de procesadores optimizados para el aprendizaje automático, como las GPU, puede mejorar las relaciones de rendimiento por vatio en factores de 2 a 5. .

Cualquier línea de investigación que sugiera que el impacto ambiental de la IA puede reducirse es motivo de celebración. Sin embargo, debe señalarse que Google no es una parte neutral. Muchos de los productos de la empresa, desde Google Maps hasta Google Search, se basan en modelos que supusieron una gran cantidad de energía para desarrollarlos y ejecutarlos.

Mike Cook, miembro del grupo abierto de investigación Knives and Paintbrushes, señala esto, incluso si las estimaciones del estudio son correctas, hay simplemente no es una buena razón para que un negocio no escale de una manera ineficiente desde el punto de vista energético cuando lo beneficia. Si bien los grupos académicos prestan atención a métricas como el impacto del carbono, las empresas no están motivadas de la misma manera, al menos por ahora.

“La única razón por la que estamos teniendo esta conversación al principio es porque compañías como Google y OpenAI tenían fondos prácticamente ilimitados y optaron por usarlos para construir modelos como GPT-3 y BERT a toda costa porque sabían que tenían la posibilidad de hacerlo. una ventaja," Cook envió un correo electrónico a TechCrunch. "En total, Creo que el documento dice algunas cosas buenas y es genial cuando pensamos en la eficiencia, pero no creo que el problema sea técnico: sabemos con certeza que estas empresas crecerán cuando lo necesiten, no se detendrán, así que para decir que esto ahora está resuelto para siempre se siente como una línea en blanco”.

El último tema de esta semana en realidad no es exactamente sobre el aprendizaje automático, sino sobre cómo simular el cerebro de una manera más directa. Los investigadores de bioinformática de la EPFL crearon un modelo matemático para crear innumerables neuronas simuladas únicas pero precisas que eventualmente podrían usarse para construir gemelos digitales de la neuroanatomía.

"Los resultados ya permiten a Blue Brain crear reconstrucciones y simulaciones biológicamente detalladas del cerebro del ratón mediante la reconstrucción computacional de regiones cerebrales para simulaciones que replican las propiedades anatómicas de las morfologías neuronales e incorporan la anatomía específica de la región", dijo la investigadora Lida Kanari.

No espere que los cerebros de los simuladores conduzcan a mejores IA, esto es en gran medida una búsqueda de avances en neurociencia, pero tal vez los conocimientos obtenidos de las redes neuronales simuladas puedan conducir a mejoras fundamentales en la comprensión de los procesos que la IA intenta imitar digitalmente.

Si quieres conocer otros artículos parecidos a AI corta, fluye y se vuelve verde - TechCrunch puedes visitar la categoría Noticias.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir