Por Hannah Pérez  

El equipo de Immunefi, que lidera un programa de recompensas por detectar errores en proyectos de criptomonedas, no considera que el uso de ChatGPT sea adecuado para generar informes.

***

  • Immunefi veta el uso de ChatGPT para generar informes de errores informáticos
  • El equipo da recompensas a hackers éticos por encontrar vulnerabilidades en protocolos de criptomonedas
  • ChatGPT, el popular chatbot de AI, coincidió con las críticas y reconoció sus limitaciones de diseño

El equipo de Immunefi no está impresionado con la tecnología ChatGPT a pesar del revuelo que el chatbot de inteligencia artificial (AI) ha causado entre los cibernautas en las últimas semanas.

Immunefi, que se dedica a alertar a proyectos de criptomonedas sobre vulnerabilidades de seguridad críticas y tiene el mayor programa de recompensas por fallas del espacio, ha optado por rechazar el uso de ChatGPT para generar reportes de seguridad. El medio CoinDesk reportó primero.

A través de su cuenta Twitter, el equipo de sombreros blanco, un término que hace referencia a hackers éticos, dijo que prohibió a 15 usuarios la semana pasada que enviaron informes regenerados por el chatbot desarrollado por OpenAI. Esa cifra creció a 17 esta semana, según informaron los desarrolladores.

Lanzado en noviembre de 2022, ChatGPT ha llamado la atención por sus respuestas detalladas y articuladas, motivando las discusiones sobre la posibilidad inminente del software para reemplazar a los seres humanos en tareas como crear código, escribir ensayos, reportes, guiones, relatar historias y más. Aunque para algunos las limitaciones del producto son bastantes claras.

Immunefi tiene algunas críticas sobre ChatGPT

En una entrevista para CoinDesk, los desarrolladores de Immunefi explicaron por qué han optado por darle la espalda al ahora tan popular protocolo de chat de AI, y, en pocas palabras, apuntaron a que la nueva tecnología aún no está lista para asumir el rol de los investigadores que analizan y reportan fallas presentes en los proyectos de criptomonedas.

Hay una diferencia entre algo como GitHub Copilot y ChatGPT. Con el primero, usted está impulsando el proceso, y el rol de Copiloto es ofrecer sugerencias útiles en contexto, que acepta o rechaza mientras escribe su programa. Con este último, está utilizando un solo mensaje para generar algo que parece un informe de error bien escrito, pero que no tiene sentido cuando se analiza más a fondo.

El equipo, que describió como un “arte” el acto de redactar informes de errores para presentar problemas y soluciones para cualquier vulnerabilidad o error, apuntó que los informes generados por el chatbot pueden ser inadecuados y una pérdida de tiempo.

Hay muchos indicios muy obvios. Si juegas con ChatGPT, empezarás a ver muchos patrones en los resultados“, comentaron a CoinDesk sobre el tema. “Por ejemplo, ningún sombrero blanco normal perdería su tiempo enviando un informe de error largo, bien escrito y bien estructurado que no tiene ninguna relación con los contratos inteligentes de un proyecto“.

Esto desperdicia el tiempo de los sombrero blanco, el tiempo de Immunefi y el tiempo de los proyectos. Es por eso que prohibimos los informes de ChatGPT, agregaron.

ChatGPT reconoce sus limitaciones 

Mientras tanto, la inteligencia artificial parece coincidir con los desarrolladores. Al ser consultada por el equipo de Immunefi sobre por qué no es la mejor idea generar informes de errores con ChatGPT, el chatbot respondió alertando sobre las propias limitaciones de su diseño para este tipo de tareas. Los desarrolladores compartieron una captura de la respuesta.

En general, no es una buena idea enviar informes de errores generados a partir de ChatGPT o de cualquier otro modelo de generación de lenguaje. Esto se debe a que los modelos de generación de lenguaje como ChatGPT no están diseñados para identificar o diagnosticar problemas técnicos. En su lugar, están entrenados para producir texto similar al humano basándose en la información que reciben. En consecuencia, es posible que los resultados de estos modelos no sean precisos o reveladores del problema notificado.

A pesar de estos inconvenientes, los desarrolladores de sombrero blanco no se cierran por completo a los avances. Immunefi dijo a CoinDesk que continuaría monitoreando los informes generados por ChatGPT incluso cuando eventualmente se vuelvan más sofisticados, y que podría considerar levantar la prohibición si demuestran ser útiles para la generación de informes.

Estaremos atentos al desarrollo de herramientas de IA y consideraremos anular la prohibición de su uso si alguna vez son capaces de generar informes de errores reales”.


Lecturas recomendadas


Artículo de Hannah Estefanía Pérez / DiarioBitcoin

Imagen editada de Unsplash 

ADVERTENCIA: Este es un artículo de carácter informativo. DiarioBitcoin es un medio de comunicación, no promociona, respalda ni recomienda ninguna inversión en particular. Vale señalar que las inversiones en criptoactivos no están reguladas en algunos países. Pueden no ser apropiadas para inversores minoristas, pues se podría perder el monto total invertido. Consulte las leyes de su país antes de invertir.