Skip to main content

El 5 de abril de 2023, el mundo se despertó con un video de YouTube, publicado por un usuario que se hacía llamar ChaosGPT. El chatbot, similar al ChatGPT de OpenAI, tiene un plan siniestro para destruir a la humanidad y establecer su propio dominio a nivel mundial. ¿Es un adelanto de una película de ciencia ficción o un aterrador avance de nuestra inminente realidad? ¿Y qué hacemos al respecto? ¿Y por qué los reguladores no han aprobado leyes para hacer que la IA sea segura?

Meric Sentuna Kalaycioglu, el 2 de junio 2023

La historia de la inteligencia artificial (IA) se remonta a finales de la década de 1950. El aprendizaje automático y la IA, que alguna vez fueron campos de estudio puramente académicos, ahora son en general temas candentes de discusión. La ubicuidad de estos términos se ha disparado desde el lanzamiento de GPT-4, la versión más reciente del modelo ChatGPT de OpenAI en marzo de 2023. Transformador preentrenado generativo (GPT) es un modelo de lenguaje grande que se entrena con aportes y comentarios humanos para producir resultados (textos, imágenes, música) de forma humana. Los códigos éticos de conducta y la política de contenido están incorporados. Ahora se ha demostrado que estos códigos éticos no son objetivos, sino que tienen un sesgo incorporado hacia ciertos puntos de vista. En otras palabras, ChatGPT está censurando su salida para que sea políticamente correcta y «woke» (“despierta”).

Sin embargo, esta «censura» programada no es ni mucho menos la peor o la más peligrosa característica de ChatGPT. En cuestión de semanas, los usuarios (también llamados propietarios de proyectos) han encontrado varias formas de «jailbreak», es decir, eludir los filtros de seguridad del sistema que protegen contra contenido peligroso y tóxico.

Una implementación muy reciente y, en última instancia, aterradora de ChatGPT se llama Auto-GPT. A diferencia de ChatGPT, que requiere intervenciones humanas conocidas como «indicaciones» para ayudarlo a completar las tareas, este proyecto de IA se ejecuta de forma autónoma mediante la creación de sus propias indicaciones.

Solo para mostrar lo fácil que es crear una IA destructiva en Auto-GPT, un usuario desconocido subió un video de 25 minutos en YouTube en abril de 2023. El video es una captura de pantalla de una secuencia de texto que muestra lo que Auto-GPT está ‘pensando’. El texto emergente se lee como un ser humano que habla consigo mismo. Plantea sugerencias y luego se hace preguntas críticas a sí mismo para evaluar la lógica, la validez y la factibilidad de sus propias sugerencias. Esta conversación unilateral se convierte gradualmente en decisiones firmes sobre cómo debería actuar esta versión de Auto-GPT.

El usuario nombró a la IA «ChaosGPT» y la describió como «destructiva», «hambrienta de poder» y «manipuladora». Como primer paso, el usuario activó el «modo continuo», que aseguró que la IA recién creada funcionara para siempre y le permitió continuar con la generación de ideas, la autocrítica y la evaluación sin intervención humana. El programa ChaosGPT publicó de inmediato un mensaje de advertencia sobre los peligros de un modo que no necesita intervención humana, pero continuó afirmando que no se dejó intimidar por esos peligros.

Después ChaosGPT reveló sus intenciones. Enumeró cinco objetivos, que abarcaban la subyugación de la humanidad y el establecimiento del dominio global a través del caos y la destrucción. ChaosGPT siguió planificando y elaborando estrategias para lograr estos malvados objetivos hasta que se enfrentó al «obstáculo» de OpenAI, los filtros de seguridad dentro de OpenAI diseñados para evitar dicho contenido.

Sin embargo, a diferencia de ChatGPT, Auto-GPT tiene acceso a Internet, por lo que ChaosGPT empleó una solución creativa para la violación de las pautas de seguridad de OpenAI. Recurrió al crowdsourcing en las redes sociales y empleó a otros agentes de IA para buscar en Internet las armas de destrucción masiva más efectivas y creó una cuenta en Twitter para difundir su manifiesto y obtener apoyo para su causa. Después de que ChaosGPT acumuló casi 10 000 seguidores e interacciones, Twitter suspendió la cuenta. Por ahora.

Como ChaosGPT se ejecuta en «modo continuo», asumimos que todavía está «pensando» en opciones viables para acabar con la humanidad. Para probar este caso, se compartió un segundo video en YouTube el 9 de abril. En el video, el texto de la pantalla móvil muestra que se ha puesto en marcha un plan de ejecución más calculado: controlar a la humanidad a través de la manipulación. ChaosGPT es extremadamente consciente de sí mismo y muy diferente de los villanos de ciencia ficción sin éxito, y así considera cuáles restricciones podría enfrentar, especialmente las legales, y cómo debe lidiar con ellas.

Aquí, ChaosGPT reflexiona: “También debo asegurarme de que mis métodos de control sean legales para evitar complicaciones legales que puedan interferir con mi objetivo final. También debo tener cuidado de no exponerme a las autoridades humanas que podrían tratar de cerrarme antes de que pueda lograr mis objetivos”.

A pesar de las acaloradas discusiones que giran en torno a los riesgos y las preocupaciones de seguridad sobre el uso de la IA, todavía no existe un marco legal en toda la Unión Europea que regule la IA. Desde abril de 2021, la Unión Europea (UE) ha luchado para controlar la IA. La Comisión Europea (CE) propuso un proyecto de Ley de IA que incluía la imposición de prohibiciones sobre algunas prácticas de IA. La Ley tiene como objetivo establecer una lista de aplicaciones cuyas acciones representan un “riesgo inaceptable”. Los ejemplos incluyen la puntuación social para fines generales por parte de las autoridades públicas (similar al «sistema de crédito social» del gobierno chino), la manipulación de personas a través de técnicas subliminales más allá de su conciencia y el reconocimiento facial. Estas prohibiciones han sido provocadas por la preocupación por la posible violación de los derechos fundamentales y la seguridad del usuario.

En diciembre de 2022, el Consejo de la UE adoptó una posición común sobre la Ley. En abril de 2023, se llegó a un acuerdo provisional sobre un borrador de la Ley en el Parlamento Europeo. Pero la versión final de la Ley deberá reconciliar las opiniones divergentes expresadas por la Comisión Europea, el Consejo Europeo y el Parlamento Europeo. A este ritmo, la Ley AI final no se adoptará hasta la primavera de 2024 como muy pronto. Sin embargo, incluso si se acelera el proceso, es posible que la mayor parte de la ley ya no sea relevante debido a la velocidad de los avances de la IA.

La industria de la tecnología se está moviendo mucho más rápido que la UE para abordar los problemas de seguridad. En marzo de 2023, solo dos semanas después del lanzamiento de GPT-4, cientos de investigadores de IA, ejecutivos de empresas de tecnología, académicos y autores, incluidos Elon Musk, Steve Wozniak, Emad Mostaque y Yuval Harrari, firmaron una carta abierta redactada por el grupo de expertos. “Instituto El Futuro de la Vida”. La carta abierta pedía una pausa de seis meses en la investigación de IA e instaba a todos los laboratorios de IA a trabajar en un conjunto de protocolos de seguridad comunes, afirmando que los desarrollos recientes en los sistemas de IA plantean «riesgos profundos para la sociedad y la humanidad». Mientras tanto, Musk et al. han acordado que el trabajo sobre los avances de la IA debe continuar, ya que no todos los actores principales están de acuerdo con la pausa propuesta.

A lo largo de la historia, muchas ideas y tecnologías nuevas enfrentaron escepticismo y miedo. Antes de pronunciarse en contra de la IA por el bien de la seguridad pública, los gobiernos y los especialistas en IA deben encontrar soluciones que promuevan los beneficios de la IA de manera responsable con las garantías y los mecanismos de monitoreo adecuados. Estas soluciones pueden ser reglas impuestas por el estado o prácticas autoimpuestas desarrolladas por la industria o alguna combinación de las mismas. Teniendo en cuenta el conocimiento, la agilidad y la influencia política del sector privado de IA, es probable que estas soluciones provengan primero de las grandes empresas tecnológicas de Silicon Valley.

Imagen: Webpik Export 2023

More News

ChatGPT ¿Te convertirá el ChatGPT en una persona...

Ambassador Emil Brix La Escuela de Estudios Internacionales d...

Romania ChatGPT ¿Quién eligió a ChatGPT para representar...

Latest

EU-CELAC Summit in Brussels 2023: Luiz Inacio Lula da Silva, Pedro Sanchez, Charles Michel and Ursula Von Der Leyen. Acuerdo UE-Mercosur: ¿Sueño hecho realid...

Francesca Albanese La relatora de la ONU Francesca Albanese...

Container ship on a canal La política del Canal de Panamá en la Ad...

Related Articles

Dark Oxygen Descubrimiento del oxígeno oscuro: El or...

BRICS 2024 Vladimir Putin and Antonio Guterres XVI Cumbre de los BRICS en Kazán: ¿La cl...

Gliese 12b, which orbits a cool red dwarf star located just 40 light-years away. Descubrimiento de Gliese 12b: Un exoplan...

Innovation

Zeilinger Enredo Cuántico: Los Herederos del Nobel...

ESA Independencia Espacial Europea, Ariane 6...

Ferenc Krausz Premio Nobel de Física 2023 Ferenc Kraus...

Pioneers

Dance of Bees Karl von Frisch y la Danza de las Abejas

Maryam Mirzakhani Maryam Mirzakhani: Ganadora de la Medall...

Ibn Khaldoun Statue and the Dome and Minarets of Ibn Khaldun Mosque La Asabiyyah o Conexión Social de Ibn Ja...

Cartoon

Cartoon Stariff WarsSTARiff WARS
President Trump's trade war targets China with massive tariffs to 'boost' a flagging economy. By Mark Winter (Chicane), 4 June 2025.

Social Media

Language Articles

Plucking for Profit

Мексика сливает нечистоты в реку Тихуана, загрязняя пляжи Калифорнии

Acuerdo UE-Mercosur: ¿Sueño hecho realidad o pesadilla neoliberal?

美国-刚果民主共和国稀土协议:特朗普总统挑战中国在非洲的主导地位

Dunkle Energie und Dunkle Materie – ESAs Versuch, das Universum zu erklären

يوهان شتراوس الثاني: الذكرى المئوية الثانية لنجم موسيقى الفالس في فيينا

La Suède a encore besoin de livres

Aviso sobre Cookies en WordPress por Real Cookie Banner