Vitalik Buterin cuestionó que la seguridad de la IA se convierta en una excusa para consolidar poder corporativo y estatal, y advirtió sobre los riesgos de restringir el código abierto mientras los grandes laboratorios estrechan vínculos con el sector defensa.
***
- Vitalik Buterin dijo que la seguridad de la IA no debe quedar definida por las empresas más poderosas.
- El cofundador de Ethereum criticó restricciones frágiles y alertó sobre una posible prohibición de la IA de código abierto.
- Como alternativa, propuso el aceleracionismo defensivo, con inversiones en hardware seguro, biodefensa y ciberseguridad.
Vitalik Buterin, cofundador de Ethereum, expresó nuevas preocupaciones sobre la forma en que el concepto de seguridad de la inteligencia artificial está siendo utilizado por grandes empresas y gobiernos. Su crítica apunta a un problema de fondo: que una idea presentada como protección pública termine funcionando como herramienta de concentración de poder.
El debate no es menor. En los últimos meses, la seguridad de la IA ha pasado de ser una conversación técnica a convertirse en un eje de política industrial, regulación y estrategia militar. En ese contexto, Buterin sostiene que dejar la definición de lo “seguro” en manos de los actores más fuertes puede derivar en un sistema desigual y más riesgoso.
Según explicó en la red social X, compañías líderes del sector, como Anthropic, no deberían ser quienes determinen por sí solas qué medidas de seguridad son aceptables. A su juicio, eso conduce a un escenario donde las reglas terminan siendo redactadas por quienes tienen más capacidad económica, política y tecnológica, reseña Cryptopolitan.
La discusión ocurre mientras varios laboratorios de IA fortalecen lazos con gobiernos y contratistas de defensa. Para Buterin, esa tendencia vuelve más delicado el tema regulatorio, ya que cualquier marco de seguridad que excluya o favorezca a organizaciones de seguridad nacional nace con fragilidades evidentes.
Seguridad de la IA y poder corporativo
Uno de los ejemplos señalados por Buterin fue Anthropic. La empresa recibió elogios recientemente por negarse a permitir que el Departamento de Bienestar, identificado como DoW, u otras entidades gubernamentales utilicen sus modelos Claude para vigilancia masiva o armamento autónomo. Esa posición fue vista por algunos observadores como una muestra de prudencia.
Sin embargo, Buterin destacó que la misma compañía también eliminó su compromiso de pausa en riesgo. Ese compromiso obligaba a detener de forma incondicional todo entrenamiento y despliegue si llegaba a desarrollar un modelo cuyas capacidades superaran la capacidad de la empresa para demostrar que dicho sistema era seguro.
Para el fundador de Ethereum, esa combinación de decisiones deja preguntas importantes. Si una empresa reclama autoridad moral o técnica para fijar estándares de seguridad, también debería aceptar límites firmes cuando sus propios modelos escalan en capacidad. De lo contrario, la narrativa de seguridad pierde consistencia.
Buterin también recordó la controversia generada cuando Anthropic criticó a competidores por aprender de los resultados producidos por Claude. Esa postura provocó rechazo entre críticos, especialmente en China, quienes argumentaron que el modelo de IA a su vez fue entrenado con el amplio conocimiento público disponible en internet.
La objeción central de Buterin es que Anthropic sostiene que los competidores de código abierto no cuentan con salvaguardas adecuadas y por eso representan un riesgo. Pero, en ese marco, surge la pregunta clave que él mismo plantea: ¿por qué una sola empresa tendría la legitimidad para decidir cuáles medidas de seguridad son suficientes para todos?
Su respuesta es dura. Las acciones observadas, dijo, sugieren un sistema en el que “las reglas son elaboradas por los más fuertes”. Si la seguridad de la IA empieza a confundirse con la idea de que “nuestra empresa” o “nuestro país” merece gobernar el mundo, entonces el resultado podría ser un entorno aún más peligroso.
El riesgo de restringir la IA abierta
La postura de Buterin también está marcada por su experiencia con organizaciones dedicadas al estudio de riesgos tecnológicos. Hace algunos años, se convirtió en uno de los mayores donantes del Future of Life Institute, conocido como FLI, una entidad que en ese momento centraba gran parte de su atención en amenazas como la guerra nuclear y los riesgos biológicos.
En 2021, creadores de tokens le regalaron una gran cantidad de SHIB. Durante el auge de las memecoins inspiradas en perros, el valor contable de esos activos superó USD $1.000 millones. Buterin decidió donar rápidamente parte de esos fondos antes de que se enfriara el entusiasmo del mercado.
De ese total, envió aproximadamente USD $500 millones en SHIB al FLI. No obstante, reconoció después que la donación tuvo más relación con la burbuja de criptomonedas meme que con una convicción profunda sobre la línea política que esa organización terminaría adoptando con el tiempo.
Con los años, el instituto cambió de enfoque. Según relató Buterin, el FLI se desplazó hacia una agenda de acción política más agresiva y de cabildeo, impulsando regulaciones que ahora considera problemáticas. En particular, discrepa de su énfasis en colocar barandillas o restricciones en los modelos de IA para forzarlos a rechazar “cosas malas”.
Desde su punto de vista, esas restricciones son soluciones frágiles. Pueden ser sorteadas mediante liberación de modelos o mediante ajuste fino, lo que limita su efectividad real. Más importante aún, teme que esa lógica termine justificando un escenario donde la IA de código abierto quede prohibida para preservar un monopolio de supuestos actores responsables.
Ese temor toca un punto sensible dentro del ecosistema tecnológico. El software abierto ha sido históricamente una vía para descentralizar innovación y auditoría. Si los controles regulatorios castigan solo a desarrolladores abiertos mientras los grandes laboratorios mantienen acceso privilegiado, el resultado podría inclinar el mercado y la gobernanza global hacia pocos centros de poder.
La propuesta de aceleracionismo defensivo
Frente a ese panorama, Buterin propone una alternativa que denomina aceleracionismo defensivo, o d/acc. La idea consiste en asumir que ciertas tecnologías peligrosas seguirán avanzando y que, por tanto, la mejor respuesta no es frenarlas de forma general, sino construir primero los escudos necesarios para reducir su potencial destructivo.
En términos prácticos, eso implica desarrollar herramientas abiertas y verificables de protección. En vez de depender de prohibiciones amplias o de barreras fijadas por empresas dominantes, el enfoque busca fortalecer defensas distribuidas capaces de contener abusos, espionaje, ciberataques o amenazas biológicas potenciadas por sistemas de IA.
Buterin indicó recientemente una asignación de USD $40 millones para iniciativas alineadas con esa visión. Entre los campos apoyados mencionó hardware seguro, biodefensa y ciberseguridad. La apuesta busca crear infraestructura de protección antes de que tecnologías más avanzadas sean explotadas con fines dañinos.
En el caso del hardware seguro, la meta es que los chips de computadoras sean inaccesibles para usos de espionaje masivo. En biodefensa, la idea incluye filtros de aire avanzados y pruebas de PCR pasivas orientadas a detectar y frenar pandemias de forma temprana. En ciberseguridad, el objetivo es mejorar la verificabilidad del software.
Esa verificabilidad, según su planteamiento, sería clave para evitar que ataques impulsados por IA derriben infraestructura crítica con facilidad. En otras palabras, en vez de confiar en que unos pocos actores restrinjan lo que consideran peligroso, Buterin favorece un ecosistema donde la defensa tecnológica sea robusta, abierta y accesible.
La discusión que abre no solo afecta al sector de la IA. También dialoga con temas centrales del mundo cripto y Blockchain, como descentralización, neutralidad de la infraestructura y resistencia a capturas corporativas o estatales. En ese sentido, su crítica se inserta en una visión más amplia sobre quién define las reglas de las tecnologías transformadoras.
De acuerdo con Cryptopolitan, Buterin teme que la seguridad de la IA termine siendo utilizada como cobertura para adquisiciones de poder corporativo y nacional. Su mensaje no niega la existencia de riesgos reales en la inteligencia artificial, pero advierte que una mala respuesta política podría concentrar todavía más poder en las mismas instituciones que dicen proteger al público.
El fondo del debate, por tanto, no es solo técnico. También es institucional y geopolítico. Si las reglas de seguridad se diseñan con excepciones para actores estatales o con ventajas para laboratorios dominantes, la promesa de una IA más segura podría convertirse en una arquitectura global menos abierta, menos auditable y más subordinada a intereses de fuerza.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Empresas
Facebook endurece su lucha contra suplantadores y redefine el contenido original
IA
Steven Spielberg rechaza usar IA para reemplazar la creatividad en cine y TV
Blockchain
PIP Labs recorta personal mientras Story Protocol redobla su apuesta por la IA
Empresas