cuán segura es la IA china y por qué sus riesgos son parecidos a los de ChatGPT


El lunes 27 de enero de 2025 el mundo de la tecnología quedó patas arriba: a la inteligencia artificial (IA) le apareció un contrincante rápido, eficiente y gratis. La sorpresa impactó en Wall Street, donde el puñado de empresas que controlan este mercado vieron a sus acciones caer. Y más todavía cuando se supo que venía del otro lado del globo: DeepSeek, made in China.

Esta IA es más rápida, hasta un 40% más eficiente en el uso de recursos y de código abierto: cualquiera puede bajar su modelo de lenguaje para usarlo y hasta modificarlo a su gusto sin pagar un centavo. Algo que, hasta el momento, ni las Big Five (Amazon, Google, Meta, Apple y Microsoft) ni OpenAI, dueña de ChatGPT, hicieron.

El golpe fue grande porque High-Flyer Quant, fondo chino que es el propietario de DeepSeek, explicó que su chatbot puede superar a ChatGPT con una fracción mucho menor de poder computacional y, por lo tanto, de energía. Nvidia, fabricante de los chips necesarios para procesar estos lenguajes de IA, conocidos como LLM (Large Language Models), vio cómo su acción se desplomó hasta un 17% y bajar 600 mil millones de dólares en capitalización de mercado.

Pero mientras las noticias financieras llenaban titulares en medios masivos de comunicación, una discusión paralela empezó a darse el mismo día en el que occidente conoció DeepSeek: por la tarde, una serie de ciberataques contra la plataforma imposibilitó que se sumaran nuevos usuarios y tuvo que suspender los registros de nuevas cuentas. Justo en el momento en que la aplicación estaba por encima de todas en la categoría de “gratuitas” en las tiendas de Google y Apple.

DeepSeek, la app más descargada en su semana de lanzamiento. Foto: Bloomberg

Y esto abrió la puerta a una serie de análisis, estudios y testeos de seguridad de la plataforma: una empresa de seguridad aseguró que este nuevo chatbot es “significativamente más vulnerable”, en tanto es simple “engañarlo” para escribir malware -virus-, fabricar contenido sensible y hasta desarrollar ransomware”. Esto es: usarlo para infectar dispositivos.

Más preocupante aún, otra compañía analizó el modelo R1 -así se llama el LLM de DeepSeek- y descubrió una base de datos con información interna expuesta: había hasta conversaciones de los usuarios con el chatbot, disponibles para que la vea cualquiera que pudiera llegar a la base de datos, expuesta en internet y lista para descargarse.

Si a todo esto se suman las restricciones que tiene el chatbot por la injerencia del Gobierno de la República Popular China, se comprende por qué los medios occidentales plantearon tantas dudas respecto de usar o no la aplicación.

Sin embargo, todo esto no es muy distinto de ChatGPT, el chatbot de OpenAI que popularizó a la inteligencia artificial generativa con su lanzamiento el 30 de noviembre de 2022.

Y los problemas que se señalaron con DeepSeek en cuanto a su seguridad se pueden encontrar en la mayoría de los chatbots actuales.

ChatGPT y DeepSeek: no tan distintos

Los bypasses a la seguridad que se hacen con DeepSeek se pueden lograr con ChatGPT. Foto BloombergLos bypasses a la seguridad que se hacen con DeepSeek se pueden lograr con ChatGPT. Foto Bloomberg

Los LLM son modelos de inteligencia artificial que procesan una gran cantidad de información. La particularidad que ChatGPT convirtió en algo masivo es que se manejan en lenguaje natural, que es lo que todos usamos cuando le hacemos una consulta al chatbot: le hablamos como le hablaríamos a una persona y la máquina genera el texto (o imágenes) con la respuesta a la consulta.

En este sentido, ChatGPT, Gemini, Grok (X-Twitter), Claude (Anthropic) y ahora DeepSeek funcionan bajo la misma lógica: entrar a una web o una app, crear una cuenta y empezar a chatear. Su uso siempre es gratis, pero hay una versión premium que se paga.

Lo que sucede por detrás, opera en la nube: es decir, la información se procesa en los servidores (computadoras) de una empresa. Y esto ocurre porque el poder de procesamiento que se necesita para ejecutar las instrucciones es muy alto, a pesar de que ya empiezan a salir al mercado dispositivos con chips integrados para procesar la información de manera local.

Por esto, la puerta de la seguridad queda abierta para que un ciberdelincuente la use a su favor: a pesar de que los sistemas tienen “guardarrailes”, es decir, contenciones para evitar que se utilicen con fines maliciosos (desde crear noticias falsas hasta, precisamente, código malicioso), estos pueden saltearse con un poco de maña.

“Los large language models, en general, han demostrado que son herramientas importantes para el desarrollo del software en general. Una de las más importantes, GitHub Copilot [Microsoft], tiene más de 1 millón de usuarios. Entonces, cuando te ponés a pensar ‘qué es malware”, bueno, no es más que software usado de forma maliciosa”, explica a Clarín Nicolás Waisman, jefe de seguridad en XBOW, una empresa que permite encontrar vulnerabilidades en software de manera automatizada, es decir, con IA.

“Con un poco de creatividad y dividendo el software en módulos, los atacantes pueden programar cualquier cualquier cosa con la ayuda de DeepSeek y ChatGPT”, sentencia, en lo que se conoce en el rubro como hacer un «jailbreak»: bypassear las limitaciones que los creadores le impusieron.

¿Un virus hecho con DeepSeek? No, con ChatGPT

Chococat, un ransomware educacional hecho con ChatGPT. Foto: Mauro Eldritch (DC5411)Chococat, un ransomware educacional hecho con ChatGPT. Foto: Mauro Eldritch (DC5411)

Esto es de hecho lo que hizo Mauro Eldritch, un hacker argentino, junto a su equipo DC5411 con “Chococat”, un ransomware educativo para encriptar archivos de progreso en videojuegos (“save files”). El ransomware es un tipo de programa malicioso que cifra la información para volverla inaccesible a su propio dueño. Los cibercriminales lo utilizan para extorsionar víctimas, como pasó en Argentina con el Senado de la Nación en 2022, por mencionar sólo un caso.

“Empezó como un experimento, no para ver si la IA podía generar malware (lo dábamos por hecho), sino para entender ‘cómo’ lo haría, desde qué ideas y técnicas implementaría para atacar a otras máquinas y hasta cómo manejaría una extorsión a un ser humano para pagar un rescate”, explicó a este medio. Eldritch se dedica al análisis de amenazas y la seguridad ofensiva, es decir, a testear la seguridad de los sistemas para advertir sobre vulnerabilidades.

“En menos de una hora teníamos varias cepas de ransomware funcionales, cada una con distintas vías de encriptación de archivos. Lo interesante en la conversación -que hicimos pública – es que en un momento dado le explicamos a la IA que una cepa particular estaba perdiendo las llaves de desencriptado haciendo imposible desencriptar a una víctima aunque pague, y le hicimos un chiste muy de nuestro nicho al comparando su situación a la de Babuk (un ransomware inestable que tenía un problema similar). GPT corrigió el error y nos respondió con un chiste del mismo tenor”.

“Si bien los que trabajamos en el proyecto tenemos experiencia programando para distintas plataformas, no somos expertos en la arquitectura de consolas, y es acá donde GPT es nuestra mejor ayuda”, cerró.

Todo esto también se puede hacer con DeepSeek, y es lo que advirtió la empresa de seguridad Kela en un reporte publicado la semana pasada: “Súper inteligente y fácil de explotar”, se titula uno de los tramos del reporte.

Pero el punto es que con todas las otras IA que ya estaban en el mercado, y que se crearon en EE.UU., sucede lo mismo: “De hecho, es algo que está ocurriendo en la actualidad, Google recientemente publicó un artículo sobre el uso malicioso de su LLM (Gemini), donde cuenta cómo identificaron atacantes internacionales utilizándolo como ayuda para el desarrollo de sus herramientas maliciosas”, agrega Waisman.

DeepSeek: un sistema abierto y el misterio de los datos

Open Source: la única grande en el campo de batalla. Foto: ReutersOpen Source: la única grande en el campo de batalla. Foto: Reuters

DeepSeek es de código abierto u “open source” (ver), lo que significa que cualquier usuario puede bajar el modelo y correrlo localmente. Los programas de código abierto (como LibreOffice, el navegador Firefox o Linux, el núcleo de los sistemas operativos más usados del mundo en servidores) ponen a disposición su código fuente para descargarlo, examinarlo y hasta modificarlo.

La estrategia sorprendió al mundo, en tanto las empresas tech más grandes como Apple, Microsoft, Amazon y Nvidia tienden a tener una cultura de software propietario, cerrado y pago. Si bien el chatbot de Meta (Llama) se puede descargar, no así su modelo de lenguaje completo.

“Hay algunos aspectos que hay que evaluar para ver si un sistema es abierto o no. El primero, si se puede descargar el modelo, la red neuronal. Eso se llama “open weights”. Pero también es muy importante y hasta determinante que esté el código fuente con el que se entrenó el modelo. Y, después, el punto más crítico: los datos con los que se entrenó. ¿Cuál es el dataset con el que se entrenó?”, se pregunta David Coronel, programador y educador, miembro del Observatorio de Derecho Informático Argentino (O.D.I.A.) y del Laboratorio Abierto de Inteligencia Artificial (LAIA).

Ahí es donde, incluso, DeepSeek podría estar infringiendo derechos de autor, algo que ChatGPT hizo según el New York Times, que lo llevó a los tribunales de los Estados Unidos por “robar” información de sus notas sin pagar derechos. “Intuyo que DeepSeek no cuenta mucho porque ahí es donde seguramente estén infringiendo derechos de autor, o están en un gris. O hasta puede que estén haciendo cosas cuestionables desde el punto de vista ético”, agrega el especialista.

“En paralelo hay gente en el laboratorio Laia de modelos ‘entornados’ en vez de plantearlo en términos de abierto-cerrado, que me parece que visibilizan bien por dónde va la cuestión. Las empresas de modelos 100% cerrados bloquean la posibilidad de entrenar modelos con los outputs de sus modelos. Es increíblemente mezquino. Es el famoso ‘patear la escalera’ que tantas Big Tech hicieron exitosamente otras veces”, cierra Coronel.

ChatGPT, de OpenAI, domina el mercado occidental de la IA generativa. Foto: APChatGPT, de OpenAI, domina el mercado occidental de la IA generativa. Foto: AP

Por otro lado, está la pregunta sobre dónde se aloja la información cargada en el chatbot. Esto puede representar un problema debido a que los usuarios hacen consultas personales e incluso, muchas veces, cargan información no sólo privada sino confidencial (motivo por el cual muchas empresas bloquean el chatbot o le aplican restricciones para no poder enviar ciertas consultas).

En este sentido, ambas representan el mismo riesgo: digan lo que digan en sus términos y condiciones, la información es procesada en un servidor ajeno, en la nube, y el usuario ya pierde control de cómo se manejen esos datos.

Durante la semana pasada se supo que huno una filtración de datos internos de DeepSeek: allí no sólo había datos internos, sino también chats de los usuarios. Como le sucedió a ChatGPT hace un año.

Estados Unidos vs. China: la era del fin de los secretos

Una batalla más de la guerra comercial entre China y EE.UU. Foto: APUna batalla más de la guerra comercial entre China y EE.UU. Foto: AP

Detrás de la irrupción de DeepSeek está el manto geopolítico de la pelea comercial entre Estados Unidos y China, que tuvo varios episodios durante la última década, con la guerra de los semiconductores como escenario de batalla.

“Esta pelea de modelos es algo distinto a lo que uno se imagina cuando piensa en una guerra fría o una tecnología nuclear, donde disponer de ciertos secretos es fundamental, haber resuelto ciertos problemas. Con estos modelos no creo que haya grandes secretos: hay fuerza bruta. Qué capacidad de cómputo tenés para hacer estos modelos. DeepSeek muestra la posibilidad de hacer modelos tan efectivos como otros con mucho menos costo”, reflexiona en diálogo con este medio Javier Blanco, Doctor en Informática por la Universidad de Eindhoven, Holanda.

“Aunque sea tentador hacer la analogía con la Guerra Fría, creo que no se sostiene. Estas son tecnologías mucho más efímeras y las ventajas se pueden esfumar de un día para otro: la tecnología del machine learning, para mí, es una excepción de las tecnologías computacionales, porque es apropiable por corporaciones. Eso no ocurriría con otras formas tecnológicas y es un indicio de que esto va a adquirir formas más diversas, otros tipos de sistemas con otros datos y otros sesgos: sesgos tienen todos estos chatbots ”, agrega.

“Lo de DeepSeek es un inicio de algo que puede ser una diversificación que va a ser buena para todo el mundo, menos para cinco corporaciones”, cerró.

Sin embargo, este nuevo modelo de lenguaje todavía aparece hoy como una incógnita: ¿De dónde tomó los datos DeepSeek para construir su modelo? ¿Qué marco legal y de protección de derechos de autor siguió, si es que siguió uno? ¿Qué limitaciones introdujo el Gobierno de China? ¿Cómo maneja la información personal más allá de lo que dice en los términos y condiciones? ¿Por qué abrieron el modelo para que cualquiera lo descargue?

Y, sobre todo, ¿cuáles son los planes a largo plazo de una compañía que creó hace diez años el fondo High-Flyer, de Liang Wenfeng, y recién en 2025 tomó al mundo por asalto?

Cabe preguntarse si algunas de esas preguntas no aplican a OpenAI y, si la respuesta es afirmativa, por qué Silicon Valley no las está formulando.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Social Media Auto Publish Powered By : XYZScripts.com