ROBÓTICA. La revolución de la IA llega a los robots: ¿cómo los cambiará?

La revolución de la IA llega a los robots: ¿cómo los cambiará?

 

Los robots humanoides desarrollados por la empresa estadounidense Figure utilizan programación OpenAI para el lenguaje y la visión. Foto AP/Jae C. Hong/Alamy

Para una generación de científicos criados viendo Star Wars, hay una decepcionante falta de droides tipo C-3PO deambulando por nuestras ciudades y hogares. ¿Dónde están los robots humanoides dotados de sentido común que pueden ayudar en el hogar y en el lugar de trabajo?

28 mayo 2024.- Es posible que los rápidos avances en inteligencia artificial (IA) llenen ese vacío. No debería sorprendernos que seamos la última generación para la que esas escenas de ciencia ficción no sean una realidad.

Desde OpenAI hasta Google DeepMind, casi todas las grandes empresas de tecnología con experiencia en IA están trabajando ahora para llevar a la robótica los versátiles algoritmos de aprendizaje que impulsan los chatbots, conocidos como modelos básicos. La idea es dotar a los robots de conocimientos de sentido común, permitiéndoles abordar una amplia gama de tareas. Muchos investigadores piensan que los robots podrían llegar a ser realmente buenos y en muy corto plazo de tiempo. 

Al mismo tiempo, los robots podrían ayudar a mejorar la IA. Muchos investigadores esperan que incorporar una experiencia encarnada al entrenamiento de la IA pueda acercarlos al sueño de la "inteligencia general artificial": una IA que tiene capacidades cognitivas similares a las humanas en cualquier tarea . 

Pero aunque muchos investigadores están entusiasmados con la última inyección de IA en la robótica, también advierten que algunas de las demostraciones más impresionantes son sólo eso: demostraciones, a menudo realizadas por empresas ansiosas por generar expectación. Puede ser un largo camino desde la demostración hasta la implementación.

Hay muchos obstáculos en este camino, incluida la recopilación de suficientes datos correctos para que los robots aprendan a lidiar con hardware temperamental y abordar las preocupaciones sobre la seguridad. Los modelos básicos de interacciones entre humanos y robots se están explorando ya, pero parece cuestionable que esta estrategia conduzca a la revolución en la robótica que algunos investigadores predicen.

Cimientos firmes

El término robot cubre una amplia gama de dispositivos automatizados, desde brazos robóticos ampliamente utilizados en la fabricación hasta automóviles autónomos y drones utilizados en misiones de guerra y rescate. La mayoría incorpora algún tipo de IA, para reconocer objetos, por ejemplo. 

Pero también están programados para realizar tareas específicas, trabajar en entornos particulares o depender de algún nivel de supervisión humana. Incluso Atlas, un robot fabricado por Boston Dynamics, una empresa de robótica en Waltham, Massachusetts, que mostró sus habilidades de parkour en 2018, trabaja mapeando cuidadosamente su entorno y eligiendo las mejores acciones para ejecutar a partir de una biblioteca de plantillas integradas.

Para la mayoría de los investigadores de IA que se dedican a la robótica, el objetivo es crear algo mucho más autónomo y adaptable en una gama más amplia de circunstancias. Esto podría comenzar con brazos robóticos que puedan "recoger y colocar" cualquier producto de fábrica, para evolucionar hacia robots humanoides que proporcionen compañía y apoyo a las personas mayores u otras aplicaciones.

La forma humana es complicada y no siempre está optimizada para tareas físicas específicas, pero tiene la enorme ventaja de adaptarse perfectamente al mundo que la gente ha construido. Un robot con forma humana podría interactuar físicamente con el mundo de la misma manera que lo hace una persona.

Sin embargo, controlar cualquier robot (y mucho menos uno con forma humana) es increíblemente difícil. Tareas aparentemente simples, como abrir una puerta, son en realidad enormemente complejas y requieren que un robot comprenda cómo funcionan los diferentes mecanismos de la puerta, cuánta fuerza aplicar a una manija y cómo mantener el equilibrio mientras lo hace. El mundo real es extremadamente variado y cambia constantemente.

El enfoque que ahora está ganando fuerza es controlar un robot utilizando el mismo tipo de modelos básicos de IA que impulsan los generadores de imágenes y los chatbots como ChatGPT. Estos modelos utilizan redes neuronales inspiradas en el cerebro para aprender de grandes cantidades de datos genéricos. Construyen asociaciones entre elementos de sus datos de entrenamiento y, cuando se les solicita un resultado, aprovechan estas conexiones para generar palabras o imágenes apropiadas, a menudo con resultados asombrosamente buenos.

Asimismo, se entrena un modelo de base de robot con texto e imágenes de Internet, proporcionándole información sobre la naturaleza de diversos objetos y sus contextos. También aprende de ejemplos de operaciones robóticas. Se puede entrenar, por ejemplo, con vídeos de prueba y error de robots, o vídeos de robots operados remotamente por humanos, junto con las instrucciones que acompañan a esas acciones. Un modelo básico de robot entrenado puede luego observar un escenario y utilizar sus asociaciones aprendidas para predecir qué acción conducirá al mejor resultado.

Google DeepMind ha construido uno de los modelos básicos robóticos más avanzados, conocido como Robotic Transformer 2 (RT-2), que puede operar un brazo robótico móvil construido por su empresa hermana Everyday Robots en Mountain View, California. Al igual que otros modelos de base robótica, se entrenó tanto en Internet como en vídeos de funcionamiento robótico. Gracias a la capacitación en línea, RT-2 puede seguir instrucciones incluso cuando esos comandos van más allá de lo que el robot ha visto hacer a otro robot antes 1 . Por ejemplo, puede mover una lata de bebida sobre una foto de Taylor Swift cuando se le pide que lo haga, a pesar de que la imagen de Swift no estaba en ninguna de las 130.000 demostraciones en las que se había entrenado RT-2.

En otras palabras, el conocimiento obtenido del rastreo en Internet (como el aspecto de la cantante Taylor Swift) se traslada a las acciones del robot. Muchos conceptos de Internet simplemente se transfieren. Esto reduce radicalmente la cantidad de datos físicos que un robot necesita absorber para hacer frente a diferentes situaciones, afirma.

Pero para comprender plenamente los conceptos básicos de los movimientos y sus consecuencias, los robots todavía necesitan aprender de muchos datos físicos. Y ahí radica un problema.

Escasez de datos

Aunque los chatbots se entrenan con miles de millones de palabras de Internet, no existe un conjunto de datos equivalentemente grande para la actividad robótica. Esta falta de datos ha dejado a la robótica en "standby".

La agrupación de datos es una forma de solucionar este problema. Los científicos han creado DROID 2 , un conjunto de datos de código abierto que reúne alrededor de 350 horas de datos de vídeo de un tipo de brazo robótico (el brazo robótico Franka Panda 7DoF, construido por Franka Robotics en Munich, Alemania), tal como estaba siendo operado remotamente por personas en 18 laboratorios alrededor del mundo. La cámara de visión robótica ha registrado datos visuales en cientos de entornos, incluidos baños, lavaderos, dormitorios y cocinas. Esta diversidad ayuda a los robots a desempeñarse bien en tareas con elementos nunca antes encontrados.

El brazo robótico RT-2 de Google DeepMind sostiene un dinosaurio de juguete sobre una mesa con una amplia variedad de objetos sobre él.

Cuando se le pide que "recoja un animal extinto", el modelo RT-2 de Google selecciona la figura de dinosaurio de una mesa llena de gente. Fuente: Google DeepMind

Gopalakrishnan es parte de una colaboración de más de una docena de laboratorios académicos que también reúne datos robóticos, en su caso de una diversidad de formas de robots, desde brazos simples hasta cuadrúpedos. La teoría de los colaboradores es que aprender sobre el mundo físico en el cuerpo de un robot debería ayudar a una IA a operar otro, de la misma manera que aprender en inglés puede ayudar a un modelo de lenguaje a generar chino, porque los conceptos subyacentes sobre el mundo que las palabras describir son los mismos. Esto parece funcionar. 

El modelo básico resultante de la colaboración, llamado RT-X, que se lanzó en octubre de 2023 3 , funcionó mejor en tareas del mundo real que los modelos que los investigadores entrenaron en una arquitectura de robot. Muchos investigadores dicen que tener este tipo de diversidad es fundamental.

Covariant también está trabajando arduamente para ampliar los datos de los robots. La empresa, fundada en parte por antiguos investigadores de OpenAI, comenzó a recopilar datos en 2018 de 30 variaciones de brazos robóticos en almacenes de todo el mundo, todos los cuales funcionan con el software Covariant. El Robotics Foundation Model 1 (RFM-1) de Covariant va más allá de la recopilación de datos de video para abarcar lecturas de sensores, como cuánto peso se levantó o se aplicó la fuerza. Este tipo de datos debería ayudar a un robot a realizar tareas como manipular un objeto blando, por ejemplo, cómo no magullar un plátano.

Covariant ha creado una base de datos patentada que incluye cientos de miles de millones de 'tokens' (unidades de información robótica del mundo real) que, según Chen, está aproximadamente a la par con la escala de datos que entrenó a GPT-3, la versión 2020 del gran OpenAI. modelo de lenguaje. RFM-1 está listo para lanzarse pronto y debería permitir a los operadores de robots que ejecutan el software de Covariant escribir o pronunciar instrucciones generales, como "recoger manzanas del contenedor".

Otra forma de acceder a grandes bases de datos de movimiento es centrarse en una forma de robot humanoide para que una IA pueda aprender viendo vídeos de personas, de los cuales hay miles de millones en línea. El modelo básico Proyecto GR00T de Nvidia, por ejemplo, está ingiriendo videos de personas realizando tareas, dice Andrews. Aunque copiar a los humanos tiene un enorme potencial para mejorar las habilidades de los robots, hacerlo bien es difícil. Por ejemplo, los videos de robots generalmente vienen con datos sobre contexto y comandos; no ocurre lo mismo con los videos de humanos.

Realidad virtual

Según los investigadores, una forma final y prometedora de encontrar suministros ilimitados de datos físicos es a través de la simulación. Muchos expertos en robótica están trabajando en la construcción de entornos de realidad virtual en 3D, cuya física imita el mundo real, y luego los conectan a un cerebro robótico para su entrenamiento. Los simuladores pueden generar enormes cantidades de datos y permitir que humanos y robots interactúen virtualmente, sin riesgos, en situaciones raras o peligrosas, y todo ello sin desgastar la mecánica. 

Pero hacer un buen simulador es una tarea difícil. Los simuladores tienen buena física, pero no perfecta, y crear diversos entornos simulados es casi tan difícil como simplemente recopilar diversos datos.

Meta y Nvidia están apostando fuerte por la simulación para ampliar los datos de los robots y han construido mundos simulados sofisticados: Habitat de Meta e Isaac Lab de Nvidia. En ellos, los robots obtienen el equivalente a años de experiencia en unas pocas horas y, en las pruebas, luego aplican con éxito lo que han aprendido a situaciones que nunca se han encontrado en el mundo real. La simulación es una herramienta extremadamente poderosa pero subestimada en la robótica.

Muchos investigadores son optimistas en cuanto a que los modelos básicos ayudarán a crear robots de uso general que puedan reemplazar el trabajo humano. En febrero, Figure, una empresa de robótica de Sunnyvale, California, recaudó 675 millones de dólares en inversiones para su plan de utilizar modelos de lenguaje y visión desarrollados por OpenAI en su robot humanoide de uso general. Un vídeo de demostración muestra a un robot dándole a una persona una manzana en respuesta a una petición general de "algo para comer". El vídeo en X (la plataforma antes conocida como Twitter) ha acumulado 4,8 millones de visitas.

No está claro exactamente cómo se entrenó el modelo básico de este robot, junto con cualquier detalle sobre su desempeño en varios entornos (ni OpenAI ni Figure respondieron a las solicitudes de entrevista de Nature ). Estas demostraciones deben tomarse con cautela. El entorno en el vídeo es notoriamente austero, dice. Agregar un entorno más complejo podría potencialmente confundir al robot, de la misma manera que dichos entornos han engañado a los autos sin conductor. 

Obstáculos por delante

A medida que la comunidad de investigación de IA avanza con cerebros robóticos, muchos de los que realmente construyen robots advierten que el hardware también presenta un desafío: los robots son complicados y se rompen con frecuencia. El hardware ha ido avanzando, pero muchas personas que miran la promesa de los modelos básicos simplemente no conocen el otro lado de lo difícil que es implementar este tipo de robots.

Otra cuestión es hasta dónde pueden llegar los modelos básicos de robots utilizando los datos visuales que constituyen la gran mayoría de su entrenamiento físico. Los robots podrían necesitar una gran cantidad de otros tipos de datos sensoriales, por ejemplo, del sentido del tacto o de la propiocepción (una sensación de dónde está su cuerpo en el espacio). Esos conjuntos de datos aún no existen. 

Lanzar modelos de cimientos al mundo real conlleva otro desafío importante: la seguridad. En los dos años transcurridos desde que comenzaron a proliferar, se ha demostrado que los grandes modelos lingüísticos generan información falsa y sesgada . También se les puede engañar para que hagan cosas que no deben hacer, como decirles a los usuarios cómo fabricar una bomba. Darle un cuerpo a los sistemas de IA trae este tipo de errores y amenazas al mundo físico. 

El valioso trabajo que se está realizando en materia de seguridad de la IA se trasladará al mundo de la robótica con reglas que se superponen a su aprendizaje, como ni siquiera intentar tareas que impliquen interactuar con personas, animales u otros organismos vivos. Hasta que tengamos confianza en los robots, necesitaremos mucha supervisión humana.

A pesar de los riesgos, hay mucho impulso en el uso de la IA para mejorar los robots y en el uso de robots para mejorar la IA. Gopalakrishnan cree que conectar cerebros de IA a robots físicos mejorará los modelos básicos, dándoles, por ejemplo, un mejor razonamiento espacial. Meta, se encuentra entre los que defienden la hipótesis de que “la verdadera inteligencia sólo puede surgir cuando un agente puede interactuar con su mundo”. Esa interacción con el mundo real, dicen algunos, es lo que podría llevar a la IA más allá de aprender patrones y hacer predicciones, para comprender y razonar verdaderamente sobre el mundo.

Lo que depara el futuro depende de a quién le preguntes. Hay quienes opinan que los robots seguirán mejorando y encontrando nuevas aplicaciones, pero su eventual uso “no es tan atractivo” como el de los humanoides que reemplazan el trabajo humano. Pero otros piensan que es posible desarrollar un robot humanoide funcional y seguro que sea capaz de preparar la cena, hacer recados y doblar la ropa, pero que podría costar cientos de millones de dólares. 

Estoy seguro de que alguien lo hará. Será simplemente una cuestión de tiempo y mucho dinero.

Fuente: Nature

Referencias

  1. 1. Brohan, A. et al. Preprint at arXiv https://doi.org/10.48550/arXiv.2307.15818 (2023).

  2. 2. Khazatsky, A. et al. Preprint at arXiv https://doi.org/10.48550/arXiv.2403.12945 (2024).

  3. 3. Open X-Embodiment Collaboration et al. Preprint at arXiv https://doi.org/10.48550/arXiv.2310.08864 (2023).

COMENTARIOS

Nombre

actualidad,1045,ADN,2,agenda,3,agricultura,119,agujeros negros,4,ALCINE,1,alergia,5,alzheimer,66,anemia,1,animales,119,arañas,1,ARNm,1,arqueologia,86,artrosis,1,aspirina,1,astronomia,148,atrofia muscular espinal,1,audiovisual,209,autismo,17,ávaros,1,avuelapluma,9,BIC,3,biodiversidad,33,biotecnología,14,BIP,1,calefacción,1,calentamiento global,10,calor,2,cambio climático,63,cancer,184,cannabidiol,1,cannabis,4,CAR-T,6,carnavales_2024,15,CBD,1,cemento,1,ciencia,422,cine,97,CO2,5,colesterol,3,compromiso179,8,computación cuántica,3,contaminación,19,convocatoria,39,COP28,5,covid-19,115,CRISPR,2,cultura,207,cultura_alcala,17,cultura_guadalajara,1,cultura_torrejon,1,danza,8,deal,62,demencia,5,dengue,1,deportes,304,depresión,5,diabetes,60,dieta,1,economia,393,economia_empleo,119,economia_negocios,366,economia_sociales,70,economia_vivienda,73,edición genética,8,El Niño,1,elecciones,23,elecciones_partidos,8,elecciones_UE2024,26,elecciones2023,78,elecciones2023_alcala,6,elecciones2023_coslada,1,elecciones2023_guadalajara,31,elecciones2023_madrid,7,elecciones2023_torrejon,24,elecciones2023_villalbilla,3,empleo,18,energia,871,energía nuclear,5,energía solar,43,energia_almacenamiento,8,energia_eolica,12,energías renovables,103,enfermedades infecciosas,2,enigmas,146,ensayos,3,enseñanza,1,envejecimiento,4,epigenética,1,epilepsia,2,esclerosis,20,esnoticia,3611,esnoticia_alcala,850,esnoticia_anchuelo,1,esnoticia_azuqueca,38,esnoticia_coslada,353,esnoticia_guadalajara,396,esnoticia_madrid,1426,esnoticia_sanfernando,174,esnoticia_torrejon,422,esnoticia_velilla,1,esnoticia_villalbilla,75,espacio,4,europa,19,eventos,22,exposiciones,43,FITUR_2023,18,FITUR_2024,16,FIVE,1,formacion,27,foros y debates,31,gastronomia,44,geología,1,glioblastoma,1,gripe aviar,2,hidrógeno verde,27,hispanidad,1,historia,173,historias,398,horteralia,1,huracanes,1,inca,1,influenza,1,inmigración,1,inmunoterapia,43,inteligencia artificial,95,James Webb,7,laboral,31,libros,157,lídar,1,litio,1,malaria,2,mayas,2,medicamentos,25,medioambiente,337,melanoma,1,micenas,1,microplásticos,5,miocarditis,1,mitosyleyendas,58,motor,545,motor_electricos,135,motor_hibridos,77,motor_innovacion,64,motor_mercado,143,motor_noticias,140,movilidad,10,mujer,1,museos,2,musica,23,naturaleza,130,Navidad2023,52,neardental,1,neurociencia,27,nocturia,1,nutricion,139,nutrición,4,obesidad,9,opinión,194,osteoartritis,1,parkinson,23,peliculas,35,permanente,1,personajes,93,pesca,1,plantas,37,plásticos,1,poesia,41,polen,2,presupuestos2024,1,prime,98,psicologia,1,relatos,2,robótica,28,sal,1,salud,655,salud dental,13,salud mental,11,semana_santa,15,sueño,2,teatro,18,tecnologia,241,terremotos,1,THC,1,tradiciones,67,transporte,1,turismo,250,universo,10,vacunas ARN,5,vidasaludable,145,video,40,VIH,2,yuca,1,
ltr
item
La Crónica del Henares: ROBÓTICA. La revolución de la IA llega a los robots: ¿cómo los cambiará?
ROBÓTICA. La revolución de la IA llega a los robots: ¿cómo los cambiará?
La revolución de la IA llega a los robots: ¿cómo los cambiará?
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgp7LA1e-wKgt8ZAkiz2QXoVQo1B0mA6tHwAY095OPhHZwCnDidUgS4w2G53l28iE-F7IFP2q-W-gWuRKqYJV_PDzSA66xf1rhKXLo6Yc4B3wHuyNEo7C8GtvGyW5_V7rvv0fwV1E0xsfqxCTRZ-1hcF_axHdaMB88cIXsZzIPG8OURWNdAW0YjjhdZw7Zh/s320/ROBOTICA.jpg
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgp7LA1e-wKgt8ZAkiz2QXoVQo1B0mA6tHwAY095OPhHZwCnDidUgS4w2G53l28iE-F7IFP2q-W-gWuRKqYJV_PDzSA66xf1rhKXLo6Yc4B3wHuyNEo7C8GtvGyW5_V7rvv0fwV1E0xsfqxCTRZ-1hcF_axHdaMB88cIXsZzIPG8OURWNdAW0YjjhdZw7Zh/s72-c/ROBOTICA.jpg
La Crónica del Henares
https://www.cronicadelhenares.com/2024/05/robotica-la-revolucion-de-la-ia-llega.html
https://www.cronicadelhenares.com/
https://www.cronicadelhenares.com/
https://www.cronicadelhenares.com/2024/05/robotica-la-revolucion-de-la-ia-llega.html
true
5995595061750506997
UTF-8
Cargar todos los posts No se encuentra Ver todo Leer más Responder Cancelar respuesta Borrar Por Inicio Páginas Posts Ver todo Relacionados Etiqueta ARCHIVO BUSCAR Todos los posts No se encuentra INICIO Domingo Lunes Martes Miércoles Jueves Viernes Sábado Dom Lun Mar Mie Jue Vie Sab Enero Febrero Marzo Abril Mayo Junio Julio Agosto Septiembre Octubre Noviembre Diciembre Ene Feb Mar Abr Mayo Jun Jul Ago Sep Oct Nov Dic justo ahora hace 1 minuto hace $$1$$ minutos hace 1 hora hace $$1$$ horas Ayer hace $$1$$ días hace $$1$$ semanas hace más de 5 semanas Seguidores Siguen THIS PREMIUM CONTENT IS LOCKED STEP 1: Share to a social network STEP 2: Click the link on your social network Copy All Code Select All Code All codes were copied to your clipboard Can not copy the codes / texts, please press [CTRL]+[C] (or CMD+C with Mac) to copy Tabla de contenidos