El informe que alerta sobre un incipiente peligro que puede llevar a la humanidad a la “extinción”
La inteligencia artificial (IA) cada día gana más terreno en la vida diaria y eso puede significar un gran riesgo para la seguridad nacional e incluso para la humanidad, alerta un nuevo reporte que el Departamento de Estado encomendó realizar hace un año, tras el aumento del uso de esta tecnología.
En octubre de 2022, un mes antes de la salida al mundo de ChatGPT, el Departamento de Estado de Estados Unidos encargó a la empresa Gladstone AI una evaluación de los riesgos de proliferación y seguridad que provocaría el uso de la IA.
Para ello la compañía entrevistó durante más de un año a más de 200 personas, entre ellas altos ejecutivos de empresas líderes en IA, investigadores en ciberseguridad, expertos en armas de destrucción masiva y funcionarios de seguridad nacional del gobierno.
Así la empresa concluyó en febrero de este año que los sistemas de IA más avanzados podrían, en el peor de los casos, "suponer una amenaza de nivel de extinción para la especie humana", dice el documento publicado esta semana por la compañía Gladstone AI.
“Junto con sus sorprendentes aplicaciones positivas, la IA avanzada conlleva algunos riesgos significativos y en rápido crecimiento. El primero de ellos es el armamentismo: el uso intencionado de la IA para causar daño. Las principales categorías de riesgo de armamentismo son la cibernética, la desinformación potenciada por la IA, el control robótico, la manipulación psicológica y el armamentismo biológico o material”, dice la investigación.
Te contamos los tres principales riesgos o amenazas que podría desencadenar el uso extendido de inteligencia artificial.
1. Armamentismo cibernético
De acuerdo con la investigación, los modelos avanzados de IA se han convertido y se convertirán en armas de muchas maneras y es imposible preverlas o enumerarlas todas, sin embargo, la compañía resalta los ataques cibernéticos.
Y es que los sistemas de inteligencia artificial tienen unas capacidades de codificación impresionantes y están “perfeccionados en tareas de programación que pueden superar a los programadores humanos competitivos en determinados contextos”.
Esto sería una amenaza a la seguridad nacional, ya que alguien podría poner en marcha modelos de generación de código cada vez más potentes para realizar “ciberataques de gran impacto capaces de paralizar infraestructuras críticas”.
2. Sistemas robóticos autónomos
La profecía de cientos de películas donde los robots controlan a otros robots para apoderarse del mundo podría volverse una realidad.
La investigación señala que actualmente algunas formas de IA avanzada se utilizan como motores de razonamiento para sistemas robóticos. Gracias a estos códigos, los sistemas robóticos pueden planificar acciones y desarrollar estrategias con una autonomía cada vez mayor.
“Estos avances hacen posible una gama cada vez mayor de aplicaciones robóticas como los ataques de enjambres de drones, contra los que aún no existen defensas sólidas”, señala el documento.
Además, algunos robots están diseñados específicamente para controlar otros robots, algo que en la práctica un ser humano no podría hacer, lo cual cede el control absoluto a las máquinas, explica un video de Gladstone AI que acompaña al reporte.
3. Riesgos biológicos y cadenas de suministros
A medida que los modelos avanzados de IA se amplíen y optimicen con los modelos del mundo que contienen información sobre sustancias químicas y cómo reacciona el cuerpo humano a ellas, esto permitirá a la IA combinar la comprensión de la síntesis química y la biología humana.
Los sistemas de IA “pueden desarrollar la capacidad de apoyar el diseño de principio a fin e incluso la ejecución de ataques biológicos o químicos catastróficos”, dice la investigación.
“Es concebible que las IA puedan diseñar agentes biológicos que que se dirijan a individuos por su raza u otras características determinadas genéticamente”.
La investigación también advierte que actualmente Estados Unidos tiene control en innumerables cadenas de suministro para evitar que los adversarios tengan a tecnologías o materiales peligrosos.
“La IA ha ampliado el conjunto de materiales estables (que sirven para la construcción de armas) conocidos por la humanidad por un factor de 10, así que podríamos preguntarnos qué sucede si avances como ese permiten a los adversarios identificar nuevas formas de crear tecnologías que los controles de exportación de Estados Unidos actualmente impiden que se desarrollen y cuya proliferación sería profundamente desestabilizadora”, dice el reporte.
El reporte concluye que, a medida que aumentan las capacidades de la IA, la huella destructiva de las personas que puedan utilizar estas capacidades como armas crecerá rápida y significativamente.
“Pero los sistemas avanzados de IA también siguen siendo frágiles y a menudo fallan en contextos inesperados. A medida que la IA avanzada se despliega más ampliamente y se depende de ella para aplicaciones cada vez más críticas, los accidentes y los ataques de adversarios pueden tener efectos catastróficos”.
Mira también: