AI mezcla concreto, diseña moléculas y piensa con láseres espaciales - TechCrunch


Bienvenido a Perceptron, el resumen semanal de TechCrunch de noticias e investigaciones sobre IA de todo el mundo. El aprendizaje automático es una tecnología clave en prácticamente todas las industrias hoy en día, y están sucediendo demasiadas cosas para que cualquiera pueda mantenerse al día. Esta columna tiene como objetivo recopilar algunos de los descubrimientos y artículos recientes más interesantes en el campo de la inteligencia artificial, y explicar por qué son importantes.

(Anteriormente conocido como Deep Science; consulte las ediciones anteriores aquí).

El resumen de esta semana comienza con dos estudios prospectivos de Facebook/Meta. El primero es una colaboración con la Universidad de Illinois en Urbana-Champaign destinada a reducir la cantidad de emisiones de la producción de hormigón. El hormigón representa alrededor del 8 por ciento de las emisiones de carbono, por lo que incluso una pequeña mejora podría ayudarnos a cumplir los objetivos climáticos.

Esto se llama la "prueba de asentamiento".

Lo que hizo el equipo de Meta/UIUC fue entrenar un modelo con más de mil fórmulas concretas, que varían en proporciones de arena, escoria, vidrio molido y otros materiales (arriba se muestra una muestra de hormigón más fotogénico). Al encontrar las tendencias sutiles en este conjunto de datos, fue posible generar un conjunto de nuevas fórmulas que se han optimizado tanto para la fuerza como para las bajas emisiones. La fórmula ganadora resultó tener un 40 por ciento menos de emisiones que el estándar regional y cumplió... bueno, algo los requisitos de fuerza. Muestra una gran promesa y los estudios de seguimiento en el campo deberían hacer que la pelota vuelva a moverse pronto.

El segundo metaestudio tiene que ver con cómo funcionan los modelos de lenguaje. La compañía quiere trabajar con expertos en imágenes neuronales y otros investigadores para comparar cómo los modelos de lenguaje se comparan con la actividad cerebral real en tareas similares.

Están particularmente interesados ​​en la capacidad humana para anticipar palabras mucho antes de la actual al hablar o escuchar, como saber que una oración terminará de cierta manera o que vendrá un "pero". Los modelos de IA se están volviendo muy buenos, pero aún funcionan principalmente agregando palabras como piezas de Lego una a la vez y ocasionalmente mirando hacia atrás para ver si tiene sentido. Apenas están comenzando, pero ya tienen algunos resultados interesantes.

Volviendo al consejo artesanal: los investigadores del Oak Ridge National Lab se están metiendo en la diversión de la formulación de IA. Usando un conjunto de datos de cálculos químicos cuánticos, sea lo que sea, el equipo creó una red neuronal que podía predecir las propiedades de los materiales, pero luego la invirtió para que pudieran ingresar propiedades y sugerir materiales.

“En lugar de tomar un material y predecir sus propiedades dadas, queríamos seleccionar las propiedades ideales para nuestro propósito y trabajar hacia atrás para diseñar de manera rápida y eficiente con un alto nivel de confianza en esas propiedades. Esto se conoce como diseño inverso”, dijo Victor Fung de ORNL. Parece haber funcionado, pero puede verificarlo usted mismo ejecutando el código en Github.

Vista de la mitad superior de América del Sur como un mapa de elevación de las copas de los árboles.

Autor de la foto: ETHZ

Este proyecto ETHZ analiza las predicciones físicas en una escala completamente diferente, estimando la altura de las copas de los árboles en todo el mundo utilizando datos de los satélites Copernicus Sentinel-2 de la ESA (para imágenes ópticas) y GEDI (Orbital Laser Ranging) de la NASA. La combinación de los dos en una red neuronal convolucional da como resultado un mapa global preciso de alturas de árboles de hasta 55 metros de altura.

Este registro regular de biomasa a escala global es importante para el monitoreo del clima, como explica Ralph Dubayah de la NASA: “Simplemente no sabemos qué tan altos son los árboles en todo el mundo. Necesitamos buenos mapas globales donde están los árboles. Porque cada vez que cortamos árboles, liberamos carbono a la atmósfera y no sabemos cuánto carbono estamos liberando".

Aquí puede navegar fácilmente por los datos en forma de mapa.

También relacionado con los paisajes está este proyecto DARPA, que trata de crear entornos simulados a una escala extremadamente grande que pueden ser atravesados ​​por vehículos autónomos virtuales. Le dieron la orden a Intel, aunque podrían haber ahorrado algo de dinero acudiendo a los creadores del juego Snowrunner, que básicamente hace lo que DARPA quiere por $30.

Imágenes de un desierto simulado y un desierto real uno al lado del otro.

Autor de la foto: inteligencia

El objetivo de RACER-Sim es crear AV todoterreno que ya sepan lo que es rugir sobre un desierto rocoso y otros terrenos accidentados. El programa de 4 años se enfoca primero en crear los entornos, construir modelos en el simulador y luego transferir las habilidades a sistemas robóticos físicos.

En el campo de los productos farmacéuticos de IA, que actualmente incluye alrededor de 500 compañías diferentes, el MIT tiene un enfoque razonable en un modelo que solo sugiere moléculas que realmente se pueden fabricar. “Los modelos a menudo sugieren nuevas estructuras moleculares que son difíciles o imposibles de producir en el laboratorio. A menos que un químico realmente pueda hacer la molécula, sus propiedades para combatir enfermedades no pueden probarse”.

Se ve genial, pero ¿es posible sin polvo de unicornio?

El modelo del MIT "garantiza que las moléculas están formadas por materiales que se pueden comprar y que las reacciones químicas que tienen lugar entre esos materiales siguen las leyes de la química". proceso de descubrimiento. Sin duda, sería bueno saber que la cura milagrosa que sugiere su IA no requiere polvo de hadas u otras sustancias exóticas.

Otro trabajo del MIT, la Universidad de Washington y otros busca enseñar a los robots a interactuar con objetos cotidianos, algo que todos esperamos que se convierta en algo común en las próximas décadas, ya que algunos de nosotros no tenemos lavavajillas. El problema es que es muy difícil decir exactamente cómo interactúan los humanos con los objetos porque no podemos pasar nuestros datos con alta fidelidad para entrenar un modelo. Por lo tanto, se requiere mucha anotación de datos y etiquetado manual.

La nueva técnica se enfoca en observar e inferir la geometría 3D muy de cerca, por lo que solo se necesitan algunos ejemplos de una persona que agarra un objeto para que el sistema aprenda cómo hacerlo por sí mismo. Normalmente, se requerirían cientos de ejemplos o miles de iteraciones en un simulador, pero este solo requirió 10 demostraciones humanas por objeto para manipularlo de manera efectiva.

Autor de la foto: CON

Con este entrenamiento mínimo, logró una tasa de éxito del 85 por ciento, mucho mejor que el modelo base. Actualmente está limitado a un puñado de categorías, pero los investigadores esperan que pueda generalizarse.

La semana pasada hay un trabajo prometedor de Deepmind sobre un "modelo de lenguaje visual" multimodal que combina el conocimiento visual con el conocimiento lingüístico, de modo que ideas como "tres gatos sentados en una valla" tienen una especie de representación cruzada entre la gramática y las imágenes. Después de todo, así es como funciona nuestra propia mente.

Flamingo, su nuevo modelo "general", puede identificarse visualmente pero también dialogar, no porque sean dos modelos en uno, sino porque combina el lenguaje y la comprensión visual. Como hemos visto en otras organizaciones de investigación, este tipo de enfoque multimodal da buenos resultados pero aún es muy experimental y computacionalmente intensivo.

Si quieres conocer otros artículos parecidos a AI mezcla concreto, diseña moléculas y piensa con láseres espaciales - TechCrunch puedes visitar la categoría Noticias.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir