Publicado 01/12/2021 11:01CET

La secuela de Slaughterbots advierte de la proliferación generalizada de IA letal

Future of Life Institute
Future of Life Institute - FUTURE OF LIFE INSTITUTE/PR NEWSWIRE

-La secuela de Slaughterbots advierte de la proliferación generalizada de IA letal a menos que la ONU actúe en la próxima reunión

La película original tuvo más de 70 millones de visitas y fue premiada en Cannes, en el Indie Fest

BOSTON, 1 de diciembre de 2021 /PRNewswire/ -- Future of Life Institute (FLI), una organización sin ánimo de lucro que trabaja para reducir los riesgos extremos de las tecnologías poderosas, ha estrenado hoy Slaughterbots - if human: kill()-, un cortometraje que advierte de nuevo del camino acelerado de la humanidad hacia la proliferación generalizada de slaughterbots: armas autónomas que utilizan la inteligencia artificial (IA) para identificar, seleccionar y matar a personas sin intervención humana.

Producido por Space Film & VFX y estrenado antes de la Sexta Conferencia de Revisión de la Convención sobre Ciertas Armas Convencionales (CCW) de Naciones Unidas, if human: kill() es la continuación del premiado cortometraje de FLI, Slaughterbots, para describir un escenario espeluznante en el que se ha permitido que estas armas se conviertan en la herramienta elegida no sólo por los militares, sino por cualquier grupo que busque lograr una violencia escalable contra un grupo, individuo o población específicos.

"La reciente aparición en el campo de batalla de los slaughterbots significa que se está acabando el tiempo para evitar que estas armas baratas de destrucción masiva caigan en manos de cualquiera que quiera una", dijo el profesor Max Tegmark, cofundador de FLI e investigador de IA en el MIT. "if human: kill() es un recordatorio de que la humanidad se enfrenta a una elección inminente: prohibir los robots de matanza o pasar décadas lamentando que hayamos arruinado nuestra forma de vida".

Cuando FLI lanzó por primera vez Slaughterbots en 2017, algunos criticaron el escenario por considerarlo poco realista y técnicamente inviable. Sin embargo, desde entonces, los slaughterbots se han utilizado en el campo de batalla, y actualmente se están desarrollando armas similares y fáciles de fabricar, lo que marca el inicio de una carrera armamentística global que actualmente no se enfrenta a restricciones legales.

if human: kill() transmite un camino concreto para evitar el resultado distópico que advierte. La visión para la acción se basa en la prescripción política del mundo real del Comité Internacional de la Cruz Roja (CICR), una organización independiente y neutral que desempeña un papel destacado en el desarrollo y la promoción de las leyes que regulan el uso de armas. Un principio central de la posición del CICR es la necesidad de adoptar una nueva prohibición jurídicamente vinculante de las armas autónomas dirigidas a las personas. FLI coincide con la recomendación más reciente del CICR de que ha llegado el momento de adoptar normas jurídicamente vinculantes sobre las armas autónomas letales mediante un nuevo tratado internacional.

"Trazar una línea roja clara que indique que la IA nunca debe decidir matar a las personas no es sólo para evitar el pesimismo, sino que también es fundamental para aprovechar el potencial de la IA para transformar nuestro mundo a mejor", dijo la Dra. Emilia Javorsky, que dirige los esfuerzos del FLI en materia de armas autónomas. "Hoy pensamos en la biología como una fuerza para el bien y para curar enfermedades, lo que se debe en parte a la prohibición de las armas biológicas, que impidió el armamento de la biología. Ahora es el momento de actuar y salvaguardar una nueva ciencia, la IA. Por el bien de nuestra humanidad y de nuestro futuro con la IA, tenemos que hacer esto bien".

Miles de destacados investigadores de IA y robótica y partes interesadas clave en la tecnología han firmado una carta abierta dirigida por FLI en la que se advierte de los peligros de una carrera armamentística de la IA y se pide la prohibición de los sistemas de armas autónomas. Más de 250 organizaciones han firmado el compromiso del Instituto de no participar ni apoyar el desarrollo de armas autónomas letales.

Para más información, visite autonomousweapons.org.

Acerca del Future of Life Institute

El Future of Life Institute es una organización sin ánimo de lucro que trabaja para reducir los riesgos catastróficos y existenciales de las tecnologías más potentes, especialmente la inteligencia artificial. Su labor consiste en la concesión de subvenciones para la reducción de riesgos, la divulgación educativa y la defensa de una mejor formulación de políticas en las Naciones Unidas, el gobierno de Estados Unidos y las instituciones de la Unión Europea.

El Instituto se ha convertido en una de las principales voces del mundo en materia de gobernanza de la inteligencia artificial, habiendo creado uno de los primeros y más influyentes conjuntos de principios de gobernanza: Los Principios de IA de Asilomar.

Logo - https://mma.prnewswire.com/media/1698069/Future_of_Life_Institute_Logo.jpg