Por Hannah Pérez  

El creador de Ethereum comparte su visión sobre la tecnología de rápido avance y alerta que, si no tomamos precauciones, la IA podría acabar con la humanidad.

***

  • El fundador de Ethereum, Vitalik Buterin, comparte su visión sobre la inteligencia artificial.
  • Advirtió que, si no tomamos precauciones, la IA podría representar un riesgo existencial para la humanidad
  • Cree que aún hay lugar para el progreso y en general se mostró optimista frente a los avances tecnológicos

La mente brillante detrás de Ethereum compartió su visión personal de optimismo tecnológico, destacando cómo a su parecer las diferentes innovaciones han procurado avances para la humanidad a través de los años y en diversos ámbitos.

Sin embargo, se preocupó por hacer una distinción sobre un tipo de tecnología en particular que se diferencia de las demás y sobre la que considera “hay que tener especial cuidado”: la inteligencia artificial (IA).

En una publicación de blog, el creador de Ethereum, Vitalik Buterin, profundizó en las diferencias fundamentales entre la IA y otros inventos humanos, enfatizando en la naturaleza única y potencialmente peligrosa de la IA. También expresó su preocupación acerca de la posibilidad de que una IA súper avanzada supere las capacidades humanas y se convierta en la especie dominante en la Tierra.

Buterin profundizó en las diferencias fundamentales entre la IA y otros inventos humanos, advirtiendo que la primera no parece ser “simplemente otra tecnología” de la misma especie de cosas que las redes sociales, los teléfonos, la imprenta y la rueda.  En cambio, dijo que la IA tiene la capacidad de crear un nuevo tipo de “mente” que podría ser perjudicial para los intereses humanos. 

Hay una forma diferente de pensar qué es la IA: es un nuevo tipo de mente que está ganando rápidamente en inteligencia y tiene muchas posibilidades de superar las facultades mentales de los humanos y convertirse en la nueva especie cumbre del planeta.

La IA amenaza con acabar con la humanidad

En esta línea de ideas, expresó su preocupación de que una IA superinteligente, si no se controla, pueda ver a los humanos como una amenaza a su propia supervivencia y potencialmente conducir a la extinción de la humanidad.

Una forma en la que la IA podría fallar podría empeorar el mundo es (casi) la peor manera posible: podría literalmente causar la extinción humana. Esta es una afirmación extrema: por mucho daño que pueda causar el peor escenario de cambio climático, o una pandemia artificial o una guerra nuclear, hay muchas islas de civilización que permanecerían intactas para recoger los pedazos“.

Pero una IA superinteligente, si decide volverse contra nosotros, bien podría no dejar supervivientes y acabar con la humanidad para siempre. Incluso Marte puede no ser seguro.

Para respaldar su postura, Buterin hizo referencia a una encuesta de agosto de 2022 en la que participaron más de 4270 investigadores de aprendizaje automático. Esta encuesta estimó que existe entre un 5% y un 10% de posibilidades de que la IA conduzca a la extinción humana.

También comenta brevemente el escenario planteado en la serie de ciencia ficción Cultura de Iain Banks al cuestionarse si un un futuro con IA superinteligente es un mundo en el que queremos vivir. Explica que esa serie presenta una civilización interestelar del futuro ocupada por humanos normales e IA superinteligentes, y en la que pareciera que ambas partes están a cargo por igual pero donde en el trasfondo los humanos se han convertido en las “mascotas” de las máquinas. 

IA, centralización y totalitarismo 

En su extenso escrito, aborda una serie de temas y sus matices, incluidos conceptos amplios como la libertad humana, hasta las distintas opiniones sobre el lugar de la tecnología en el progreso, los modelos políticos, las formas en las que han aprovechado y pueden aprovechar las tecnologías y hasta mencionó el reciente drama que de OpenAI por la salida de Sam Altman.  

Reflexionando sobre la centralización de la política y el aprovechamiento de la tecnología para fines totalitarios, hace una advertencia acerca de cómo la vigilancia de los gobiernos podría llegar incluso más lejos con la IA. 

Con la vigilancia moderna para recopilar información y la IA moderna para interpretarla, es posible que no haya lugar donde esconderse”, escribe Buterin, antes de asegurar que la situación “empeora cuando pensamos en las consecuencias de la IA en la guerra”.

En general, veo demasiados planes para salvar el mundo que implican darle a un pequeño grupo de personas un poder extremo y opaco y esperar que lo usen sabiamente”, continúa con preocupación y como comentario de antesala para arrojar su propuesta filosófica de un “mundo más democrático” que busca evitar a toda costa la centralización “como la solución a nuestros problemas” . 

Una visión optimista: hay lugar para el progreso

Si bien no parece absolutamente convencido del peor escenario posible, reconoció la posibilidad de que la IA represente una amenaza real y destacó la necesidad de que los humanos tomen precauciones.

Pensando en una forma de mitigar los peligros y garantizar que los humanos puedan ejercer el control al tiempo que acceden a una ruta beneficiosa para el desarrollo de la IA, propuso la integración de interfaces cerebro-computadora (BCI).

Estas interfaces, que establecen una vía de comunicación entre la actividad eléctrica del cerebro y dispositivos externos como las computadoras, podrían acortar significativamente el circuito de comunicación entre humanos y máquinas. Más importante aún, las BCI podrían garantizar que los humanos mantengan una agencia significativa sobre las máquinas, reduciendo el riesgo de que la IA actúe de manera no alineada con los valores humanos.

La visión de Buterin va más allá de las simples medidas tecnológicas. Hizo un llamado a la “intención humana activa” para dirigir el desarrollo de la IA en beneficio de la humanidad. Este enfoque contrasta con los avances de la IA únicamente con fines lucrativos, que pueden no siempre alinearse con los resultados más deseables para la sociedad humana.

Terminó su reflexión en una nota optimista, en la que hizo hincapié en la forma en la que los humanos han desarrollado continuamente tecnologías para mejorar sus capacidades. Me encanta la tecnología porque la tecnología expande el potencial humano, expresó, antes de pintar a los humanos como “la estrella más brillante del universo“. 

Dentro de dos mil millones de años, si la Tierra o cualquier parte del universo todavía conserva la belleza de la vida terrestre, serán los artificios humanos como los viajes espaciales y la geoingeniería los que lo habrán hecho posible.


Artículo de Hannah Estefanía Pérez / DiarioBitcoin

Imagen de Unsplash 

ADVERTENCIA: Este es un artículo de carácter informativo. DiarioBitcoin es un medio de comunicación, no promociona, respalda ni recomienda ninguna inversión en particular. Vale señalar que las inversiones en criptoactivos no están reguladas en algunos países. Pueden no ser apropiadas para inversores minoristas, pues se podría perder el monto total invertido. Consulte las leyes de su país antes de invertir.