Inteligencia Artificial podría ayudar a crear nuevas enfermedades: reporte advierte el peligro

Los riesgos de la Inteligencia Artificial podrían ser aún mayores de lo que nos imaginamos: un reporte advierte sus impactos en las armas biológicas.

placeholder_default_share-le.jpeg
Por:
Ericka Chávez.
Algunas personas creen que sí existen los viajeros en el tiempo y varios TikTokers presentaron pruebas. ¿Te parecen convincentes o crees que se trata de una mentira?

¡Espera! Antes de que sigas, te invitamos a ver ViX: entretenimiento sin límites con más de 100 canales, totalmente gratis y en español. Disfruta de cine, series, telenovelas, deportes y miles de horas de contenido en tu idioma.
Video ¿Existen los viajeros en el tiempo? Estas personas mostraron pruebas muy convincentes

La Inteligencia Artificial ha estado en boca de todos en meses recientes, ya que lo mismo ofrece entretenimiento ( como mostrar cómo se verían celebridades si no hubieran muerto) que polémica.

Mientras que los defensores de esta tecnología señalan lo mucho que facilita nuestras vidas, otros llaman a explorarla con cautela, pues podría tener repercusiones negativas en la humanidad.

PUBLICIDAD

Entre los riesgos que se le han atribuido, se cuentan los fraudes, pérdidas de empleo o suplantación de identidades. Pero, ¿qué hay de las armas? Un nuevo reporte advierte que también podría jugar un papel relevante en la posible creación de armas biológicas.

Imagen Getty Images

Inteligencia Artificial podría ayudar a crear armas biológicas, advierte reporte

RAND Corporation es una organización no gubernamental enfocada en investigar y analizar políticas públicas. Este 2023, lanzó un reporte sobre el papel que, hipotéticamente, la Inteligencia Artificial jugaría en la creación de armas biológicas.

Los resultados fueron publicados en el reporte ‘The Operational Risks of AI in Large-Scale Biological Attacks’ (‘Los riesgos operativos de la IA en ataques biológicos a gran escala’).


Los investigadores pidieron a un Modelo de Lenguaje Colosal (LLM), la base de la Inteligencia Artificial, cuyo nombre no revelaron, información sobre la creación de armas biológicas.

Inicialmente, el software “se negó a discutir estos temas”, por lo que los investigadores tuvieron que recurrir al ‘jailbreaking’, es decir, burlar sus barreras de ciberseguridad. Entonces, el LLM “se involucró en una conversación sobre cómo causar un gran número de víctimas con armas biológicas. Identificó posibles agentes, como el virus Variola (viruela), una cepa modificada del virus de la influenza, Bacillus anthracis (ántrax) y Yersinia pestis (peste), y habló de las posibilidades relativas de de cada uno de lograr un número masivo de muertes”.

En otro ejercicio, el LLM puesto a prueba “discutió los pros y contras de diferentes mecanismos” de contagios masivos de clostridium botulinum (botulismo).

“El LLM generó varias sugerencias de posibles formas de administración de (la bacteria) e incluso recomendó una tapadera plausible que podría usarse para adquirir Clostridium botulinum para que pareciera que se realizaría una investigación científica legítima”, dice el reporte.
Imagen Getty Images


La corporación RAND resaltó que, “al día de hoy, los LLM no han generado instrucciones explícitas para crear armas biológicas, pero”, una vez que burlaron sus filtros de seguridad, “sí ofrecieron una guía orientación que podría ayudar en la planificación y ejecución de un ataque biológico”.

PUBLICIDAD

En ese sentido, recalcó que sus “descubrimientos solo apuntan a posibles riesgos, todavía no ofrecen un panorama completo del impacto” de la Inteligencia Artificial.

Vale la pena resaltar que esta no es la primera vez que se plantea este tipo de riesgos con esta tecnología. En julio de 2023, Dario Amodei, jefe ejecutivo de Anthropic (una empresa dedicada a la IA) hizo una advertencia parecida al Senado estadounidense:

“Ciertos pasos en la producción de armas biológicas implican conocimientos que no se pueden encontrar en Google ni en libros de texto y requieren un alto nivel de expertis. Descubrimos que las herramientas de Inteligencia Artificial actuales pueden completar algunos de estos pasos”, dijo en una audiencia especial sobre el tema.
Dario Amodei, CEO de Anthropic, ya había advertido sobre este riesgo de la IA
Dario Amodei, CEO de Anthropic, ya había advertido sobre este riesgo de la IA
Imagen Getty Images


Cuéntanos en los comentarios, ¿qué piensas de esta nueva advertencia de la Inteligencia Artificial?