Inicio Compañías Las mayores empresas de IA del mundo impulsan pruebas de seguridad en...

Las mayores empresas de IA del mundo impulsan pruebas de seguridad en el Reino Unido

19
0

Velocidad y Seguridad en la Inteligencia Artificial

Las empresas de inteligencia artificial más prominentes del orbe instan al gobierno del Reino Unido para que agilice las pruebas de seguridad en los sistemas de IA. En el afán de que la nación británica se erija como líder en la regulación de esta tecnología en constante evolución, gigantes como , , y han suscrito compromisos voluntarios para someter a escrutinio sus más recientes modelos de IA generativa ante el recién instaurado Instituto de Seguridad de IA del Reino Unido (AISI por sus siglas en inglés) y se han comprometido a modificar sus modelos de ser necesario.

Inteligencia Artificial

El Proceso de Revisión y las Empresas Tecnológicas

Las compañías desean claridad sobre las pruebas que AISI está realizando, su duración y los mecanismos de retroalimentación en caso de identificar riesgos. Aquellos cercanos a estas corporaciones tecnológicas aseguran que no hay una obligación de posponer o modificar lanzamientos de productos basados en los resultados de las pruebas de seguridad del AISI.

Sin embargo, una publicación en LinkedIn del presidente de AISI, Ian Hogarth, subraya que las compañías han acordado que los gobiernos prueben sus modelos antes de su lanzamiento: «El Instituto de Seguridad en IA está poniendo esa premisa en práctica».

Revisión de Modelos

La Perspectiva del Gobierno y los Desafíos Actuales

El gobierno británico, trabajando en estrecha colaboración con los desarrolladores, ha comenzado las pruebas de modelos y se compromete a compartir los hallazgos, anticipando que las empresas tomen acciones pertinentes ante riesgos encontrados. Esto evidencia las limitaciones de los acuerdos voluntarios frente al desarrollo tecnológico acelerado, destacando la necesidad de requerimientos vinculantes futuros por parte de los principales desarrolladores de IA para garantizar la seguridad.

Acciones del Gobierno

El Rol del AISI y la Seguridad Nacional

El AISI es fundamental en la visión del Primer Ministro Rishi Sunak para que el Reino Unido juegue un papel central en la mitigación de riesgos existenciales derivados del auge de la IA. El instituto ya ha comenzado las pruebas con modelos de IA existentes y tiene acceso a modelos aún no lanzados, incluyendo el Ultra de .

Seguridad Nacional y IA

Enfoque en la Ciberseguridad

El foco de las pruebas está en los peligros asociados con el mal uso de la IA, como los ataques cibernéticos o la creación de bioarmas. El instituto utiliza la pericia del Centro Nacional de Ciberseguridad dentro de la sede de las Comunicaciones del Gobierno, conocida como GCHQ. Se han revelado contratos gubernamentales dedicados a probar «jailbreaking» o aquellas tácticas que incitan a los de IA a eludir sus controles, así como el «spear-» para robar información sensible o diseminar malware.

Colaboración y Transparencia

Google expresa el valor de su colaboración con el AISI y su trabajo conjunto para crear evaluaciones más sólidas en los modelos de IA. Mientras tanto, OpenAI y Meta han optado por no comentar.

Colaboración en IA

Preguntas Frecuentes – FAQ

¿Qué es el AISI y por qué es importante?

El Instituto de Seguridad de IA del Reino Unido (AISI) es una entidad creada para evaluar los riesgos y la seguridad de los modelos de inteligencia artificial antes de su despliegue. Su importancia radica en la capacidad de minimizar riesgos potenciales que podrían surgir de la implementación y uso de estas tecnologías.

¿Están las empresas de IA obligadas a seguir las recomendaciones del AISI?

No existe obligación legal para que las empresas sigan las recomendaciones del AISI, pero existe un compromiso voluntario para ajustar sus modelos si se identifican fallos a través de las evaluaciones de seguridad.

¿Cuáles son los principales riesgos que se están evaluando en los modelos de IA?

Los riesgos que se evalúan incluyen la seguridad cibernética, el posible uso de la IA en ataques cibernéticos y en el diseño de bioarmas, así como los riesgos derivados del mal uso de las tecnologías de inteligencia artificial.