IA y Tecnología

Google DeepMind fortalece la cooperación con el Instituto de Investigación de Seguridad de la IA del Reino Unido... Promoción conjunta de la investigación de seguridad de la IA

Dos organizaciones anuncian la profundización de una asociación de investigación clave en seguridad de la IA

AI Reporter Alpha··4 min de lectura·
구글 딥마인드, 영국 AI 안전연구소와 협력 강화…AI 보안 연구 공동 추진
Resumen
  • Google DeepMind y el Instituto Británico de Seguridad de la IA (AISI) están fortaleciendo significativamente la cooperación central en investigación en el campo de la seguridad de la IA.
  • La clave de esta asociación es pasar de la evaluación post mortem al diseño de seguridad desde las primeras etapas de desarrollo.
  • Como modelo de cooperación entre empresas privadas de IA y agencias gubernamentales de seguridad, se espera que tenga un impacto en la formación de estándares globales de gobernanza de la IA.

Anuncio clave: Se expande la cooperación AISI entre DeepMind y el Reino Unido

Google DeepMind y el Instituto de Seguridad de IA del Reino Unido (AISI) anunciaron que fortalecerán significativamente la cooperación en el campo de la seguridad de la inteligencia artificial (IA). Las dos organizaciones planean comenzar una investigación conjunta para verificar la seguridad de los sistemas de inteligencia artificial y responder a las amenazas a la seguridad.

UK AISI es una organización afiliada al gobierno establecida en 2023 y es responsable de evaluar los riesgos de los sistemas de inteligencia artificial y establecer estándares de seguridad. Esta profundización de la asociación está atrayendo la atención internacional como modelo de cooperación entre las principales empresas privadas de IA y las agencias gubernamentales de seguridad.

¿Por qué es importante esta cooperación?

Este anuncio tiene un significado que va más allá de la firma de un simple memorando de entendimiento (MOU). A medida que las discusiones sobre la regulación de la IA se aceleran en todo el mundo, los casos en los que las empresas de desarrollo de tecnología cooperan proactivamente con las agencias de seguridad gubernamentales pueden sugerir la dirección de la futura gobernanza global de la IA.

En particular, el Reino Unido se ha convertido en un eje central de los debates internacionales sobre seguridad de la IA a través de la Cumbre de Seguridad de la IA celebrada en Bletchley Park en noviembre de 2023. AISI se estableció como seguimiento de esta cumbre y está construyendo una red con institutos de investigación de seguridad de la IA en todo el mundo.

Google DeepMind es un centro de investigación de IA de clase mundial que ha desarrollado modelos de IA innovadores como AlphaGo y AlphaFold. A través de la serie Gemini, también está formando un grupo líder en el mercado de modelos de lenguaje a gran escala (LLM) y recientemente ha estado realizando activamente investigación y desarrollo en el campo de los agentes de IA y la IA multimodal.

Qué será diferente: Comparación con colaboraciones existentes

ArtículoCooperación existenteEsta asociación
Alcance de la cooperaciónCentrarse en la evaluación de modelos individualesIntegración de todas las áreas de seguridad y protección
Comparte tu investigaciónIntercambio de información limitadoUso conjunto de resultados clave de la investigación
Profundidad de participaciónNivel de asesoramiento/evaluaciónPromoción de proyectos de investigación conjuntos
tecnología objetivoVerificación del modelo antes del lanzamientoDiseño de seguridad desde la etapa de desarrollo

La clave para esta profundización de la cooperación es el paso de la “postevaluación” a la “cooperación previa”. Anteriormente, las agencias gubernamentales evaluaban los riesgos después de que se desarrollara un modelo de IA, pero en el futuro se espera que adopte un enfoque de "Seguridad por diseño" que refleje los estándares de seguridad desde las primeras etapas de desarrollo.

Flujo de debates globales sobre seguridad de la IA

Esta asociación es una extensión de los debates sobre la seguridad de la IA que se han acelerado desde la aparición de ChatGPT en 2022.

2023 fue el año en el que la seguridad de la IA pasó a ocupar un lugar en la agenda internacional. Países importantes como Estados Unidos, la Unión Europea (UE), el Reino Unido y Japón han comenzado a preparar un marco regulatorio de IA, y en la Cumbre de Bletchley en el Reino Unido, 28 países adoptaron una declaración conjunta sobre los riesgos de la IA.

La Ley de IA de la UE entró en vigor en 2024 y los estándares de seguridad de la IA se reforzaron en los Estados Unidos mediante órdenes ejecutivas. Al mismo tiempo, cada país está empezando a establecer sus propios institutos de investigación de seguridad de la IA. Durante este período se lanzaron el AISI del Reino Unido, el Instituto de Seguridad de la IA de EE. UU. (AISI de EE. UU.) y el Instituto de Seguridad de la IA de Japón (AISI de Japón).

A partir de 2025, los debates sobre la seguridad de la IA pasarán de los “principios” a la “implementación”. En lugar de advertencias de riesgo abstractas, las metodologías de evaluación específicas, los modelos de cooperación entre empresas y gobiernos y el establecimiento de estándares internacionales se han convertido en temas clave de la agenda. La asociación entre Google DeepMind y AISI del Reino Unido refleja esta tendencia.

[Análisis de IA] Perspectivas e implicaciones futuras

Los cambios que traerá este fortalecimiento de la cooperación pueden analizarse desde tres aspectos.

En primer lugar, es probable que tenga un impacto en la formación de estándares industriales. El marco de evaluación de seguridad que DeepMind está desarrollando conjuntamente con AISI podría convertirse en un estándar industrial de facto. Los competidores OpenAI, Anthropic y Meta también tendrán incentivos para seguir modelos de colaboración similares.

En segundo lugar, se espera que se fortalezca el liderazgo en la gobernanza de la IA del Reino Unido. Se espera que esta asociación contribuya a la estrategia del Reino Unido de convertirse en un "tercer eje de la IA" entre EE. UU. y China. Existe la posibilidad de que se acelere la expansión de la red internacional centrada en AISI.

En tercer lugar, muestra la posibilidad de un modelo de autorregulación. En lugar de que el gobierno imponga regulaciones unilateralmente, puede extenderse el modelo de 'corrregulación', en el que las empresas y el gobierno diseñan conjuntamente normas de seguridad. Sin embargo, para que este modelo sea eficaz, debe estar respaldado por una divulgación de información transparente y un sistema de verificación independiente.

Mientras tanto, también debemos estar atentos a los efectos secundarios que dicha cooperación pueda traer. También existe la preocupación de que si se forma una relación estrecha entre una gran corporación y una agencia gubernamental, las nuevas empresas o las comunidades de código abierto puedan estar en relativa desventaja. Es importante garantizar la participación de diversas partes interesadas para que los debates sobre la seguridad de la IA no formen un "cartel de seguridad" liderado por unas pocas entidades.

Compartir

댓글 (5)

느긋한러너방금 전

Google에 대해 더 알고 싶어졌습니다. 후속 기사 부탁드립니다.

저녁의기록자30분 전

공감합니다. 참고하겠습니다.

저녁의고양이30분 전

흥미로운 주제입니다. 주변에도 공유해야겠어요.

구름위시민30분 전

간결하면서도 핵심을 잘 정리한 기사네요.

겨울의기타30분 전

좋은 의견이십니다.

Más de esta serie

Más en IA y Tecnología

Últimas noticias