Inicio Ética y Sociedad Control de IA en Silicio: Blindaje contra el Apocalipsis

Control de IA en Silicio: Blindaje contra el Apocalipsis

11
0

Inteligencia Artificial: Limitaciones y Seguridad

Incluso el algoritmo de inteligencia artificial más astuto y hábil probablemente tendrá que acatar las leyes del silicio. Sus capacidades estarán definidas por el sobre el que opere.

Poder de computo y AI

¿Cómo Controlamos lo Incontrolable?

Algunos investigadores están buscando maneras de aprovechar esa conexión para limitar el potencial de los sistemas de AI de causar daño. La propuesta es codificar las reglas que rigen la formación y el despliegue de algoritmos avanzados directamente en los necesarios para ejecutarlos.

Regulaciones de AI

Una Posible Solución en Teoría

En teoría, este método podría ofrecer una nueva manera efectiva de impedir que naciones deshonestas o compañías irresponsables desarrollen en secreto una AI peligrosa. Sería una estrategia más difícil de eludir que las leyes o tratados convencionales.

Teoria y práctica en AI

Componentes de Confianza en la Tecnología Actual

Algunos chips ya poseen componentes de confianza diseñados para proteger datos sensibles o prevenir el mal uso. Por ejemplo, los últimos iPhone guardan la información biométrica en un «enclave seguro”. utiliza un chip personalizado en sus servidores en la nube para asegurarse de que no ha habido alteraciones.

Protección de datos biométricos

Licencias y Control de Potencia Computacional

El documento sugiere aprovechar características similares incorporadas en las GPU o grabar nuevas en chips futuros para evitar que proyectos de AI accedan a más poder computacional del permitido sin una licencia. De esta manera, se limitaría quién puede construir los sistemas más poderosos.

Licencias en tecnología

Un Enfoque Previo en Seguridad

Codificar restricciones en el hardware informático podrá parecer extremo, pero hay precedentes en el establecimiento de infraestructuras para monitorear o controlar tecnología importante y hacer valer tratados internacionales.

Infraestructura y seguridad

La Aplicación Práctica de la Teoría

Las ideas presentadas no son completamente teóricas. Por ejemplo, los chips de para el entrenamiento de AI ya vienen con módulos criptográficos seguros. Además, investigadores han demostrado demostraciones de cómo estos módulos de seguridad podrían restringir el uso no autorizado de un modelo de AI.

Módulos criptográficos y práctica

FAQ sobre Control de Inteligencia Artificial

¿Es posible realmente controlar la potencia computacional de la AI?
Sí, mediante el uso de licencias y limitaciones codificadas en hardware, se podría restringir el acceso al poder computacional necesario para entrenar algoritmos avanzados.

¿Pueden estos métodos prevenir el desarrollo peligroso de AI por entidades irresponsables?
Teóricamente, estas estrategias podrían hacer más difícil para naciones o empresas irresponsables el desarrollo secreto de AI perjudicial.

¿Los componentes de confianza en los chips están siendo ya utilizados para algo similar?
Los componentes de confianza existentes, como los módulos criptográficos seguros en servidores y dispositivos móviles, están diseñados para proteger datos y prevenir el mal uso, lo que sugiere un precedente para el uso en la regulación de AI.