IA y Tecnología

Google DeepMind lanza Gemini Robotics-ER 1.6 con razonamiento espacial y comprensión multivista mejorados

El nuevo modelo de razonamiento encarnado apunta a la robótica autónoma en entornos del mundo real

노승우··5 min de lectura·
Gemini Robotics-ER 1.6: Powering real-world robotics tasks through enhanced embodied reasoning
Resumen
  • Google DeepMind lanzó Gemini Robotics-ER 1.6, mejorando el razonamiento espacial y la comprensión multivista para robots autónomos.
  • La actualización habilita un rendimiento autónomo cualitativamente superior en entornos del mundo real no estructurados.
  • Con la intensificación de la competencia en IA física, la estandarización del razonamiento encarnado podría determinar el liderazgo del mercado en los próximos años.

Gemini se convierte en los ojos y el cerebro de los robots

Google DeepMind ha presentado Gemini Robotics-ER (Embodied Reasoning) 1.6, un modelo diseñado específicamente para tareas robóticas autónomas. La actualización se centra en dos capacidades clave: el Razonamiento Espacial y la Comprensión Multivista, permitiendo que los robots realicen operaciones más precisas y autónomas en entornos del mundo real no estructurados. Las siglas 'ER' corresponden a Razonamiento Encarnado (Embodied Reasoning), una filosofía de diseño que internaliza cómo un agente con cuerpo físico percibe y actúa en el mundo.

Por qué esta actualización es importante

Uno de los desafíos históricos de la robótica es conectar la visión con la acción. Los humanos razonan instintivamente en 3D al recoger un objeto, infiriendo posición, ángulo y distribución del peso, pero los robots convencionales han tenido limitaciones fundamentales para extraer esta información de una sola cámara.

Gemini Robotics-ER 1.6 aborda este problema combinando capacidades de razonamiento a nivel de modelo de lenguaje grande (LLM) con la percepción robótica. El módulo de comprensión multivista fusiona entradas de múltiples ángulos de cámara en un mapa espacial 3D coherente; el motor de razonamiento espacial planifica la siguiente acción sobre ese mapa. Esto va más allá del simple reconocimiento de imágenes: redefine cómo los robots interactúan con su entorno.

Los dominios de aplicación clave incluyen automatización industrial, almacenes logísticos, asistencia médica y robots de servicio doméstico, todos los cuales exigen la manipulación precisa de objetos y la adaptación dinámica al entorno que esta actualización aborda directamente.

¿Qué cambió respecto a versiones anteriores?

CaracterísticaGeneración ER anteriorER 1.6Cambio
Razonamiento EspacialInterpretación 2D limitadaRazonamiento 3D mejoradoSalto cualitativo
Procesamiento MultivistaEnfoque en cámara únicaComprensión multivista integradaNueva capacidad
Tareas en el mundo realSolo entornos estructuradosEntornos del mundo real no estructuradosMayor generalidad
Nivel de autonomíaSemiautónomoRazonamiento autónomo mejoradoMayor autonomía

En el panorama competitivo, OpenAI está ampliando su inversión en Inteligencia Física, Meta avanza en marcos de aprendizaje robótico de código abierto, y el Optimus de Tesla ejemplifica el impulso hacia la IA encarnada propia. La estrategia de Google DeepMind es diferenciada: construir una capa de razonamiento específica para robots sobre la ya poderosa base multimodal de Gemini.

El hilo histórico: cómo llegamos aquí

La IA Encarnada no surgió de la noche a la mañana. Tras el AlphaGo de DeepMind (2016), los investigadores empezaron a aplicar principios similares al mundo físico.

SayCan y PaLM-E de Google (2022) fueron primeras demostraciones de que los modelos de lenguaje podían usarse para planificación de acciones robóticas. En 2023, el auge de los modelos fundacionales dio lugar a RT-2 (Robotics Transformer 2), que demostró la conversión end-to-end de comandos en lenguaje natural a movimientos robóticos.

Con la familia Gemini en 2024, Google DeepMind integró formalmente el razonamiento multimodal en una línea robótica dedicada. Gemini Robotics-ER se centra específicamente en el razonamiento, y la versión 1.6 continúa ese arco evolutivo.

Después de 2025, el mercado de IA robótica está transitando de la automatización simple a Sistemas Autónomos Adaptativos: de brazos industriales de tareas fijas hacia robots de propósito general que se autodirigen en entornos cambiantes. Gemini Robotics-ER 1.6 emerge como una capa de infraestructura clave que impulsa esa transición.

¿Qué viene a continuación? [Análisis experto]

El lanzamiento de Gemini Robotics-ER 1.6 señala un cambio más amplio en la competencia de IA robótica: del rendimiento en benchmarks hacia la capacidad de despliegue en el mundo real.

Primero, es probable que se intensifique la competencia en integración hardware-software. Google actualmente despliega Gemini Robotics a través de asociaciones con fabricantes de hardware robótico. Las líneas competitivas con actores de integración vertical como Tesla, Physical Intelligence y Boston Dynamics se espera que se definan con mayor claridad.

Segundo, es probable que aumente la presión por inferencia en el dispositivo (on-device). Muchos entornos robóticos del mundo real son intolerantes a la latencia de la nube. El anuncio previo de Google DeepMind de una variante Gemini Robotics On-Device parece ser un movimiento deliberado para anticiparse a esta restricción.

Tercero, es probable que se acelere la estandarización del razonamiento multimodal para interfaces físicas. El razonamiento espacial y la comprensión multivista no son exclusivos de la robótica; la conducción autónoma, los drones y la realidad aumentada comparten las mismas necesidades fundamentales. Quien establezca el estándar aquí podría determinar el panorama del mercado de IA física durante los próximos cinco años.

Gemini Robotics-ER 1.6 es más que una actualización de versión. Marca un hito en la expansión de la IA del mundo digital al físico, y la carrera por definir esa frontera apenas ha comenzado.

Compartir

댓글 (100)

별빛의녹차방금 전

유익한 기사네요. Google에 대해 처음 접하는 정보가 있었습니다. 전문가 의견도 더 듣고 싶습니다.

대전의리더방금 전

깔끔한 기사입니다. DeepMind에 대해 처음 접하는 정보가 있었습니다. 나중에 다시 읽어볼 만합니다.

솔직한별방금 전

핵심만 잘 정리해주시네요.

아침의돌고래방금 전

구현추론에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 전문가 의견도 더 듣고 싶습니다.

현명한에스프레소방금 전

참고가 됩니다. 로보틱스 관련 용어 설명이 친절해서 좋았습니다. 다른 시각의 분석도 읽어보고 싶습니다.

햇살의해방금 전

Google 주제로 시리즈 기사가 나오면 좋겠습니다.

현명한별방금 전

좋은 기사 감사합니다.

부산의관찰자방금 전

lanza 관련 해외 동향도 궁금합니다.

열정적인드럼방금 전

참고가 됩니다. 구현추론 관련 해외 동향도 궁금합니다. 나중에 다시 읽어볼 만합니다.

구름위펭귄방금 전

로보틱스에 대해 주변 사람들과 이야기 나눠볼 만합니다. 계속 지켜봐야겠습니다.

유쾌한워커5분 전

몰랐던 사실을 알게 됐습니다. Google 관련 용어 설명이 친절해서 좋았습니다.

한밤의연구자5분 전

DeepMind에 대해 더 알고 싶어졌습니다. 생각이 바뀌었습니다.

공원의고양이5분 전

lanza에 대해 주변 사람들과 이야기 나눠볼 만합니다.

저녁의기록자5분 전

깔끔한 기사입니다. 구현추론에 대해 처음 접하는 정보가 있었습니다. 좋은 기사 감사합니다.

카페의돌고래5분 전

로보틱스의 향후 전망이 궁금합니다.

오후의기록자5분 전

깔끔한 기사입니다. Google에 대해 주변 사람들과 이야기 나눠볼 만합니다. 생각이 바뀌었습니다.

서울의크리에이터5분 전

DeepMind 주제로 시리즈 기사가 나오면 좋겠습니다.

유쾌한관찰자5분 전

흥미로운 주제입니다. lanza이 앞으로 어떻게 전개될지 주목해야겠습니다. 생각이 바뀌었습니다.

냉철한녹차5분 전

구현추론 관련 용어 설명이 친절해서 좋았습니다.

봄날의사색가5분 전

로보틱스에 대해 더 알고 싶어졌습니다. 전문가 의견도 더 듣고 싶습니다.

도서관의돌고래12분 전

Google에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 좋은 기사 감사합니다.

해운대의기록자12분 전

좋은 정리입니다. DeepMind 관련 용어 설명이 친절해서 좋았습니다.

여름의첼로12분 전

lanza의 향후 전망이 궁금합니다.

해운대의사색가12분 전

구현추론 관련 통계가 의외였습니다. 좋은 기사 감사합니다.

제주의해12분 전

로보틱스에 대해 처음 접하는 정보가 있었습니다. 좋은 기사 감사합니다.

신중한러너12분 전

Google에 대해 처음 접하는 정보가 있었습니다. 좋은 기사 감사합니다.

가을의라떼12분 전

DeepMind의 전문가 코멘트가 설득력 있었습니다.

아침의라떼12분 전

유익한 기사네요. lanza 관련 용어 설명이 친절해서 좋았습니다. 계속 지켜봐야겠습니다.

홍대의관찰자12분 전

구현추론에 대해 처음 접하는 정보가 있었습니다. 나중에 다시 읽어볼 만합니다.

강남의돌고래12분 전

좋은 정보 감사합니다.

저녁의비평가30분 전

Google에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.

대전의펭귄30분 전

DeepMind이 일상에 어떤 영향을 줄지 생각해보게 됩니다.

부지런한강아지30분 전

lanza에 대해 더 알고 싶어졌습니다.

현명한시민30분 전

구현추론에 대해 주변 사람들과 이야기 나눠볼 만합니다. 좋은 기사 감사합니다.

새벽의바람30분 전

로보틱스이 일상에 어떤 영향을 줄지 생각해보게 됩니다.

비오는날커피30분 전

Google이 앞으로 어떻게 전개될지 주목해야겠습니다. 전문가 의견도 더 듣고 싶습니다.

현명한해30분 전

좋은 정리입니다. DeepMind 관련 배경 설명이 이해하기 쉬웠습니다. 주변에도 공유해야겠어요.

별빛의라떼30분 전

lanza 관련 데이터가 인상적이었습니다.

신중한돌고래30분 전

흥미로운 주제입니다. 구현추론에 대해 주변 사람들과 이야기 나눠볼 만합니다.

강남의달30분 전

참고가 됩니다. 로보틱스 기사에서 언급된 사례가 흥미로웠습니다.

인천의비평가1시간 전

잘 읽었습니다. Google 관련 해외 동향도 궁금합니다. 주변에도 공유해야겠어요.

강남의강아지1시간 전

흥미로운 주제입니다. DeepMind에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.

한밤의해1시간 전

lanza 관련 배경 설명이 이해하기 쉬웠습니다. 계속 지켜봐야겠습니다.

진지한드럼1시간 전

흥미로운 주제입니다. 구현추론 관련 해외 동향도 궁금합니다. 좋은 기사 감사합니다.

따뜻한커피1시간 전

로보틱스에 대해 더 알고 싶어졌습니다. 잘 정리된 기사네요.

다정한달1시간 전

Google에 대해 주변 사람들과 이야기 나눠볼 만합니다. 좋은 기사 감사합니다.

봄날의러너1시간 전

이런 시각도 있었군요. DeepMind에 대해 더 알고 싶어졌습니다.

새벽의사자1시간 전

정리가 깔끔하네요.

홍대의사색가1시간 전

구현추론 기사에서 언급된 사례가 흥미로웠습니다.

부산의에스프레소1시간 전

이런 시각도 있었군요. 로보틱스에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.

가을의여행자2시간 전

잘 읽었습니다. Google에 대해 주변 사람들과 이야기 나눠볼 만합니다.

느긋한라떼2시간 전

다양한 주제를 다뤄주셔서 좋습니다.

밝은사색가2시간 전

lanza 기사에서 언급된 사례가 흥미로웠습니다.

솔직한아메리카노2시간 전

잘 읽었습니다. 구현추론 관련 해외 동향도 궁금합니다.

해운대의바이올린2시간 전

출퇴근길에 항상 읽고 있습니다.

비오는날사자2시간 전

Google 관련 통계가 의외였습니다.

유쾌한러너2시간 전

유익한 기사네요. DeepMind 관련 통계가 의외였습니다.

바닷가의다람쥐2시간 전

lanza에 대해 더 알고 싶어졌습니다. 좋은 기사 감사합니다.

카페의시민2시간 전

좋은 정리입니다. 구현추론 관련 데이터가 인상적이었습니다. 전문가 의견도 더 듣고 싶습니다.

성수의여행자2시간 전

로보틱스에 대해 더 알고 싶어졌습니다. 후속 기사 부탁드립니다.

새벽의드리머3시간 전

이런 시각도 있었군요. Google이 앞으로 어떻게 전개될지 주목해야겠습니다. 잘 정리된 기사네요.

공원의다람쥐3시간 전

북마크해두겠습니다. DeepMind이 앞으로 어떻게 전개될지 주목해야겠습니다. 다른 시각의 분석도 읽어보고 싶습니다.

호기심많은커피3시간 전

깔끔한 기사입니다. lanza에 대해 주변 사람들과 이야기 나눠볼 만합니다.

도서관의사자3시간 전

구현추론이 일상에 어떤 영향을 줄지 생각해보게 됩니다.

다정한관찰자3시간 전

몰랐던 사실을 알게 됐습니다. 로보틱스이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 잘 정리된 기사네요.

아침의시민3시간 전

흥미로운 주제입니다. Google 관련 통계가 의외였습니다. 좋은 기사 감사합니다.

용감한바이올린3시간 전

DeepMind의 향후 전망이 궁금합니다. 후속 기사 부탁드립니다.

신중한여우3시간 전

잘 읽었습니다. lanza에 대해 더 알고 싶어졌습니다.

바람의리더3시간 전

몰랐던 사실을 알게 됐습니다. 구현추론 주제로 시리즈 기사가 나오면 좋겠습니다.

카페의비평가3시간 전

로보틱스 관련 배경 설명이 이해하기 쉬웠습니다. 다른 시각의 분석도 읽어보고 싶습니다.

판교의여행자5시간 전

Google의 전문가 코멘트가 설득력 있었습니다.

구름위해5시간 전

기사 퀄리티가 좋습니다.

오후의부엉이5시간 전

lanza 관련 데이터가 인상적이었습니다. 좋은 기사 감사합니다.

산속의여우5시간 전

참고가 됩니다. 구현추론 기사에서 언급된 사례가 흥미로웠습니다.

조용한돌고래5시간 전

로보틱스 관련 해외 동향도 궁금합니다. 전문가 의견도 더 듣고 싶습니다.

별빛의시민5시간 전

잘 읽었습니다. Google 관련 통계가 의외였습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

꼼꼼한커피5시간 전

유익한 기사네요. DeepMind에 대해 처음 접하는 정보가 있었습니다.

용감한바람5시간 전

좋은 정리입니다. lanza 관련 배경 설명이 이해하기 쉬웠습니다. 잘 정리된 기사네요.

해운대의부엉이5시간 전

구현추론 관련 데이터가 인상적이었습니다. 계속 지켜봐야겠습니다.

도서관의라떼5시간 전

로보틱스이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 나중에 다시 읽어볼 만합니다.

용감한달8시간 전

Google의 향후 전망이 궁금합니다.

서울의비평가8시간 전

DeepMind에 대해 더 알고 싶어졌습니다. 주변에도 공유해야겠어요.

비오는날구름8시간 전

잘 읽었습니다. lanza에 대해 주변 사람들과 이야기 나눠볼 만합니다. 후속 기사 부탁드립니다.

아침의바이올린8시간 전

읽기 좋은 기사입니다. 구현추론 기사에서 언급된 사례가 흥미로웠습니다.

냉철한별8시간 전

깔끔한 기사입니다. 로보틱스 기사에서 언급된 사례가 흥미로웠습니다. 해외 동향도 함께 다뤄주시면 좋겠습니다.

공원의기록자8시간 전

몰랐던 사실을 알게 됐습니다. Google 관련 배경 설명이 이해하기 쉬웠습니다.

별빛의여행자8시간 전

DeepMind에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다. 계속 지켜봐야겠습니다.

꼼꼼한강아지8시간 전

깔끔한 기사입니다. lanza이 일상에 어떤 영향을 줄지 생각해보게 됩니다.

호기심많은시민8시간 전

몰랐던 사실을 알게 됐습니다. 구현추론의 전문가 코멘트가 설득력 있었습니다.

바람의다람쥐8시간 전

참고가 됩니다. 로보틱스 주제로 시리즈 기사가 나오면 좋겠습니다.

바닷가의구름

Google 관련 용어 설명이 친절해서 좋았습니다.

아침의연구자

DeepMind 관련 통계가 의외였습니다. 다른 시각의 분석도 읽어보고 싶습니다.

꼼꼼한라떼

lanza이 일상에 어떤 영향을 줄지 생각해보게 됩니다.

대전의에스프레소

읽기 좋은 기사입니다. 구현추론 관련 용어 설명이 친절해서 좋았습니다.

꼼꼼한아메리카노

기사 잘 읽었습니다.

산속의고양이

유익한 기사네요. Google에 대해 주변 사람들과 이야기 나눠볼 만합니다.

산속의구름

유익한 기사네요. DeepMind이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 나중에 다시 읽어볼 만합니다.

서울의달

읽기 좋은 기사입니다. lanza의 전문가 코멘트가 설득력 있었습니다. 다른 시각의 분석도 읽어보고 싶습니다.

똑똑한토끼

읽기 좋은 기사입니다. 구현추론의 전문가 코멘트가 설득력 있었습니다.

도서관의사색가

로보틱스 관련 용어 설명이 친절해서 좋았습니다.

Más de esta serie

Más en IA y Tecnología

Últimas noticias