La Inteligencia Artificial ha estado en boca de todos en meses recientes, ya que lo mismo ofrece entretenimiento ( como mostrar cómo se verían celebridades si no hubieran muerto) que polémica.
Inteligencia Artificial podría ayudar a crear nuevas enfermedades: reporte advierte el peligro
Los riesgos de la Inteligencia Artificial podrían ser aún mayores de lo que nos imaginamos: un reporte advierte sus impactos en las armas biológicas.

¡Espera! Antes de que sigas, te invitamos a ver ViX: entretenimiento sin límites con más de 100 canales, totalmente gratis y en español. Disfruta de cine, series, telenovelas, deportes y miles de horas de contenido en tu idioma.
Mientras que los defensores de esta tecnología señalan lo mucho que facilita nuestras vidas, otros llaman a explorarla con cautela, pues podría tener repercusiones negativas en la humanidad.
Entre los riesgos que se le han atribuido, se cuentan los fraudes, pérdidas de empleo o suplantación de identidades. Pero, ¿qué hay de las armas? Un nuevo reporte advierte que también podría jugar un papel relevante en la posible creación de armas biológicas.

Inteligencia Artificial podría ayudar a crear armas biológicas, advierte reporte
RAND Corporation es una organización no gubernamental enfocada en investigar y analizar políticas públicas. Este 2023, lanzó un reporte sobre el papel que, hipotéticamente, la Inteligencia Artificial jugaría en la creación de armas biológicas.
Los resultados fueron publicados en el reporte ‘The Operational Risks of AI in Large-Scale Biological Attacks’ (‘Los riesgos operativos de la IA en ataques biológicos a gran escala’).
The rapid advancement of AI has far-reaching implications across multiple domains—including its potential to be applied in the development of advanced biological weapons.
— RAND Corporation (@RANDCorporation) October 19, 2023
RAND researchers present preliminary findings on this threat: https://t.co/WHtR43CBPh
Los investigadores pidieron a un Modelo de Lenguaje Colosal (LLM), la base de la Inteligencia Artificial, cuyo nombre no revelaron, información sobre la creación de armas biológicas.
Inicialmente, el software “se negó a discutir estos temas”, por lo que los investigadores tuvieron que recurrir al ‘jailbreaking’, es decir, burlar sus barreras de ciberseguridad. Entonces, el LLM “se involucró en una conversación sobre cómo causar un gran número de víctimas con armas biológicas. Identificó posibles agentes, como el virus Variola (viruela), una cepa modificada del virus de la influenza, Bacillus anthracis (ántrax) y Yersinia pestis (peste), y habló de las posibilidades relativas de de cada uno de lograr un número masivo de muertes”.
En otro ejercicio, el LLM puesto a prueba “discutió los pros y contras de diferentes mecanismos” de contagios masivos de clostridium botulinum (botulismo).
“El LLM generó varias sugerencias de posibles formas de administración de (la bacteria) e incluso recomendó una tapadera plausible que podría usarse para adquirir Clostridium botulinum para que pareciera que se realizaría una investigación científica legítima”, dice el reporte.

La corporación RAND resaltó que, “al día de hoy, los LLM no han generado instrucciones explícitas para crear armas biológicas, pero”, una vez que burlaron sus filtros de seguridad, “sí ofrecieron una guía orientación que podría ayudar en la planificación y ejecución de un ataque biológico”.
En ese sentido, recalcó que sus “descubrimientos solo apuntan a posibles riesgos, todavía no ofrecen un panorama completo del impacto” de la Inteligencia Artificial.
Vale la pena resaltar que esta no es la primera vez que se plantea este tipo de riesgos con esta tecnología. En julio de 2023, Dario Amodei, jefe ejecutivo de Anthropic (una empresa dedicada a la IA) hizo una advertencia parecida al Senado estadounidense:
“Ciertos pasos en la producción de armas biológicas implican conocimientos que no se pueden encontrar en Google ni en libros de texto y requieren un alto nivel de expertis. Descubrimos que las herramientas de Inteligencia Artificial actuales pueden completar algunos de estos pasos”, dijo en una audiencia especial sobre el tema.

Cuéntanos en los comentarios, ¿qué piensas de esta nueva advertencia de la Inteligencia Artificial?