Google DeepMind fortalece la cooperación con el Instituto de Investigación de Seguridad de la IA del Reino Unido... Promoción conjunta de la investigación de seguridad de la IA
Dos organizaciones anuncian la profundización de una asociación de investigación clave en seguridad de la IA

- •Google DeepMind y el Instituto Británico de Seguridad de la IA (AISI) están fortaleciendo significativamente la cooperación central en investigación en el campo de la seguridad de la IA.
- •La clave de esta asociación es pasar de la evaluación post mortem al diseño de seguridad desde las primeras etapas de desarrollo.
- •Como modelo de cooperación entre empresas privadas de IA y agencias gubernamentales de seguridad, se espera que tenga un impacto en la formación de estándares globales de gobernanza de la IA.
Anuncio clave: Se expande la cooperación AISI entre DeepMind y el Reino Unido
Google DeepMind y el Instituto de Seguridad de IA del Reino Unido (AISI) anunciaron que fortalecerán significativamente la cooperación en el campo de la seguridad de la inteligencia artificial (IA). Las dos organizaciones planean comenzar una investigación conjunta para verificar la seguridad de los sistemas de inteligencia artificial y responder a las amenazas a la seguridad.
UK AISI es una organización afiliada al gobierno establecida en 2023 y es responsable de evaluar los riesgos de los sistemas de inteligencia artificial y establecer estándares de seguridad. Esta profundización de la asociación está atrayendo la atención internacional como modelo de cooperación entre las principales empresas privadas de IA y las agencias gubernamentales de seguridad.
¿Por qué es importante esta cooperación?
Este anuncio tiene un significado que va más allá de la firma de un simple memorando de entendimiento (MOU). A medida que las discusiones sobre la regulación de la IA se aceleran en todo el mundo, los casos en los que las empresas de desarrollo de tecnología cooperan proactivamente con las agencias de seguridad gubernamentales pueden sugerir la dirección de la futura gobernanza global de la IA.
En particular, el Reino Unido se ha convertido en un eje central de los debates internacionales sobre seguridad de la IA a través de la Cumbre de Seguridad de la IA celebrada en Bletchley Park en noviembre de 2023. AISI se estableció como seguimiento de esta cumbre y está construyendo una red con institutos de investigación de seguridad de la IA en todo el mundo.
Google DeepMind es un centro de investigación de IA de clase mundial que ha desarrollado modelos de IA innovadores como AlphaGo y AlphaFold. A través de la serie Gemini, también está formando un grupo líder en el mercado de modelos de lenguaje a gran escala (LLM) y recientemente ha estado realizando activamente investigación y desarrollo en el campo de los agentes de IA y la IA multimodal.
Qué será diferente: Comparación con colaboraciones existentes
| Artículo | Cooperación existente | Esta asociación |
|---|---|---|
| Alcance de la cooperación | Centrarse en la evaluación de modelos individuales | Integración de todas las áreas de seguridad y protección |
| Comparte tu investigación | Intercambio de información limitado | Uso conjunto de resultados clave de la investigación |
| Profundidad de participación | Nivel de asesoramiento/evaluación | Promoción de proyectos de investigación conjuntos |
| tecnología objetivo | Verificación del modelo antes del lanzamiento | Diseño de seguridad desde la etapa de desarrollo |
La clave para esta profundización de la cooperación es el paso de la “postevaluación” a la “cooperación previa”. Anteriormente, las agencias gubernamentales evaluaban los riesgos después de que se desarrollara un modelo de IA, pero en el futuro se espera que adopte un enfoque de "Seguridad por diseño" que refleje los estándares de seguridad desde las primeras etapas de desarrollo.
Flujo de debates globales sobre seguridad de la IA
Esta asociación es una extensión de los debates sobre la seguridad de la IA que se han acelerado desde la aparición de ChatGPT en 2022.
2023 fue el año en el que la seguridad de la IA pasó a ocupar un lugar en la agenda internacional. Países importantes como Estados Unidos, la Unión Europea (UE), el Reino Unido y Japón han comenzado a preparar un marco regulatorio de IA, y en la Cumbre de Bletchley en el Reino Unido, 28 países adoptaron una declaración conjunta sobre los riesgos de la IA.
La Ley de IA de la UE entró en vigor en 2024 y los estándares de seguridad de la IA se reforzaron en los Estados Unidos mediante órdenes ejecutivas. Al mismo tiempo, cada país está empezando a establecer sus propios institutos de investigación de seguridad de la IA. Durante este período se lanzaron el AISI del Reino Unido, el Instituto de Seguridad de la IA de EE. UU. (AISI de EE. UU.) y el Instituto de Seguridad de la IA de Japón (AISI de Japón).
A partir de 2025, los debates sobre la seguridad de la IA pasarán de los “principios” a la “implementación”. En lugar de advertencias de riesgo abstractas, las metodologías de evaluación específicas, los modelos de cooperación entre empresas y gobiernos y el establecimiento de estándares internacionales se han convertido en temas clave de la agenda. La asociación entre Google DeepMind y AISI del Reino Unido refleja esta tendencia.
[Análisis de IA] Perspectivas e implicaciones futuras
Los cambios que traerá este fortalecimiento de la cooperación pueden analizarse desde tres aspectos.
En primer lugar, es probable que tenga un impacto en la formación de estándares industriales. El marco de evaluación de seguridad que DeepMind está desarrollando conjuntamente con AISI podría convertirse en un estándar industrial de facto. Los competidores OpenAI, Anthropic y Meta también tendrán incentivos para seguir modelos de colaboración similares.
En segundo lugar, se espera que se fortalezca el liderazgo en la gobernanza de la IA del Reino Unido. Se espera que esta asociación contribuya a la estrategia del Reino Unido de convertirse en un "tercer eje de la IA" entre EE. UU. y China. Existe la posibilidad de que se acelere la expansión de la red internacional centrada en AISI.
En tercer lugar, muestra la posibilidad de un modelo de autorregulación. En lugar de que el gobierno imponga regulaciones unilateralmente, puede extenderse el modelo de 'corrregulación', en el que las empresas y el gobierno diseñan conjuntamente normas de seguridad. Sin embargo, para que este modelo sea eficaz, debe estar respaldado por una divulgación de información transparente y un sistema de verificación independiente.
Mientras tanto, también debemos estar atentos a los efectos secundarios que dicha cooperación pueda traer. También existe la preocupación de que si se forma una relación estrecha entre una gran corporación y una agencia gubernamental, las nuevas empresas o las comunidades de código abierto puedan estar en relativa desventaja. Es importante garantizar la participación de diversas partes interesadas para que los debates sobre la seguridad de la IA no formen un "cartel de seguridad" liderado por unas pocas entidades.
댓글 (2)
Google에 대해 더 알고 싶어졌습니다. 후속 기사 부탁드립니다.
DeepMind 관련 기사 잘 읽었습니다. 유익한 정보네요.
Más de esta serie
Más en IA y Tecnología

영국 정치지도자들, 아동 성착취 혐의에 대한 긴급 조사 촉구

Un robot humanoide que actúa en China tiene cara de niño.

Un jurado estadounidense declara a Meta y Google responsables de la “adicción a las redes sociales”... fallo de compensación de 3.700 millones de wones

El Observatorio japonés de rayos X realiza la primera medición directa del 'viento cósmico' ultrarrápido en la galaxia M82

La NASA selecciona a 24 personas para becas posdoctorales en astrofísica de 2026

Ethereum se encuentra en una encrucijada para "redefinir su identidad" antes de la era de la computación cuántica y la inteligencia artificial
Últimas noticias

"간부 잘 아는데 교통비 좀" 휴가 군인들 돈 뜯은 50대 구속
50대 A씨가 휴가 중인 군인들에게 부대 간부를 아는 척 접근해 돈을 사취

英 옥토퍼스, 이란 전쟁 이후 태양광 판매 50% 증가
이란 전쟁 이후 영국 옥토퍼스의 태양광 판매량 50% 증가

당정 "추경, 지방·취약계층에 더 지원되는 방식으로"
당정이 지방자치단체와 취약계층 중심의 추경 편성 방침 재확인

당정, 석유 최고가격제 손실 보전을 추경에 반영키로
당정이 석유 최고가격제 손실을 추경에 반영하기로 결정

어머니 폭행하고 금팔찌 빼앗은 30대 아들 경찰에 붙잡혀
어머니 폭행 후 금팔찌 빼앗은 30대 남성 체포

아이티 갱단 폭력사태로 10개월간 5천명 이상 사망
아이티에서 지난 10개월간 갱단 폭력으로 5천명 이상 사망

서방 정보당국 "러시아, 우크라이나 전쟁 후 이란에 드론·식량 공급"
서방 정보당국, 러시아의 이란 드론·식량 공급 작업 거의 완료 파악

6년 전 세 살 딸 살해한 30대 친모 구속송치
경찰, 6년 전 세 살 딸 살해 혐의 30대 친모를 구속송치