Por Canuto  

Cada vez más personas consultan a la IA para tomar decisiones sobre su dinero, pero expertos advierten que la calidad de la respuesta depende en gran medida del prompt. La tecnología puede servir para orientación general, aunque sigue siendo riesgosa cuando se le piden cálculos precisos sobre impuestos, retiro o situaciones financieras muy personales.

***

  • Andrew Lo, del MIT, dijo que redactar buenos prompts puede marcar la diferencia entre una respuesta útil y una deficiente.
  • La IA puede orientar sobre conceptos generales, pero presenta riesgos cuando se le exigen cálculos exactos sobre la situación personal de un usuario.
  • Expertos recomiendan pedir fuentes, identificar incertidumbres y usar varios prompts antes de actuar sobre una recomendación.

 


La inteligencia artificial (IA) se está convirtiendo en una herramienta cada vez más usada para resolver dudas de finanzas personales. Desde preguntas sobre jubilación hasta comparaciones entre fondos cotizados y fondos mutuos, muchos usuarios están acudiendo a chatbots como una vía rápida para entender mejor sus opciones.

Sin embargo, la utilidad real de esas respuestas depende menos de la plataforma elegida y más de cómo se formula la pregunta. Para especialistas consultados por CNBC, un buen prompt puede mejorar de forma importante el resultado, mientras que una instrucción vaga o incompleta puede producir recomendaciones débiles, confusas o directamente erróneas.

Andrew Lo, director del Laboratory for Financial Engineering del MIT e investigador principal de su Computer Science and Artificial Intelligence Lab, afirmó en una presentación web para la Griffin Graduate School of Arts and Sciences de la Universidad de Harvard que existe un verdadero arte y una ciencia en la llamada ingeniería de prompts.

La advertencia llega en un momento en que el uso de estas herramientas se extiende con rapidez. Según una encuesta de Intuit Credit Karma a 1.019 adultos publicada en septiembre, el 66% de los estadounidenses que han usado inteligencia artificial generativa la han utilizado para recibir asesoramiento financiero. Entre millennials y miembros de la Generación Z, esa proporción supera el 80%.

Ese dato sugiere un cambio importante en la manera en que muchas personas buscan orientación sobre su dinero. El mismo sondeo indicó que alrededor del 85% de los encuestados que emplearon GenAI con ese fin actuaron de acuerdo con las recomendaciones obtenidas.

Para Lo, eso no significa que la gente deba evitar esta tecnología. Su postura es más matizada: las personas sí deberían usar IA para planificación financiera, pero el punto crítico está en cómo la usan y en qué tipo de tareas le delegan.

La IA sirve para contexto general, no para sustituir análisis delicados

Uno de los mensajes centrales de los expertos es que la inteligencia artificial puede ser útil como herramienta de apoyo, especialmente para entender conceptos financieros amplios. Lo explicó que suele funcionar bien al ofrecer panoramas generales, por ejemplo, al describir por qué conviene diversificar inversiones o en qué casos un ETF podría ser mejor que un fondo mutuo.

Ese tipo de respuesta encaja con la fortaleza de los grandes modelos de lenguaje. Son sistemas buenos para resumir, comparar y organizar información presente en grandes volúmenes de texto. En otras palabras, pueden ayudar a un usuario a orientarse antes de tomar una decisión más seria o consultar a un profesional.

Pero el problema aparece cuando se les pide bajar al detalle numérico de una situación particular. Lo señaló que la planificación fiscal es un ejemplo claro. Aunque la IA puede orientar sobre deducciones o reglas tributarias que una persona podría considerar, usarla para calcular con precisión el impacto de una declaración de impuestos personal puede ser arriesgado.

El motivo, según explicó, es que estas herramientas no son especialmente sólidas procesando números ni realizando cálculos financieros exactos. Eso puede parecer contraintuitivo para muchos usuarios, que tienden a asumir que un sistema sofisticado también será exacto al trabajar con cifras.

En ese terreno, la prudencia es clave. Lo advirtió que cuando se trata de cálculos muy específicos sobre la situación personal de un individuo, es necesario ser muy cuidadoso. La aparente seguridad con la que responde un chatbot no garantiza que el contenido sea correcto.

Además del problema de precisión, persiste el riesgo de las llamadas alucinaciones. Es decir, respuestas incorrectas o inventadas que se presentan con tono convincente. Ese peligro lo resumió de forma tajante al advertir que uno de los aspectos más preocupantes de los LLM es que, sin importar lo que se les pregunte, siempre regresan con una respuesta que suena autoritativa, incluso si no lo es.

Qué diferencia a un mal prompt de uno útil

Brenton Harrison, planificador financiero certificado y fundador de la firma virtual New Money New Problems, coincidió en que el resultado depende mucho de la calidad de la instrucción inicial. A su juicio, incluso el mejor modelo del mundo tiene un límite si recibe un prompt deficiente.

La principal falla de muchos usuarios es preguntar de forma demasiado amplia. Un prompt útil, explicó Lo, debe contener suficiente detalle para que la IA ofrezca información relevante. Si la instrucción es genérica, la respuesta tenderá a ser genérica también.

Durante el seminario web de Harvard, Lo puso un ejemplo relacionado con la jubilación. Un mal prompt, dijo, sería simplemente preguntar: “¿Cómo debería jubilarme?”. Para él, una fórmula así es demasiado vaga y cae en la lógica de “basura entra, basura sale”.

Como contraste, propuso un prompt mucho más estructurado: “Supón que eres un asesor fiduciario que solo cobra honorarios. Estos son mis objetivos, restricciones, tramo fiscal, estado, activos, tolerancia al riesgo y horizonte temporal. Proporcióname, número uno: estrategia base. Número dos: supuestos clave. Tres: riesgos. Cuatro: qué podría invalidar este plan. Cinco: qué información te falta y, en particular, sobre qué tienes incertidumbre”.

Ese ejemplo no solo aporta más contexto. También obliga al sistema a organizar la respuesta de manera más útil y transparente. Al pedir supuestos, riesgos y vacíos de información, el usuario deja de buscar una simple recomendación y empieza a exigir una explicación sobre los límites de esa recomendación.

Lo añadió que este proceso suele ser iterativo. No se trata de una única pregunta mágica, sino de una conversación con múltiples prompts, quizás más de 20, hasta obtener un resultado satisfactorio. En ese recorrido, revisar dos y tres veces la salida resulta especialmente importante cuando el tema es financiero.

La ingeniería inversa del prompt y las preguntas de control

Una de las sugerencias más interesantes de Lo es usar la propia IA para descubrir cómo habría sido el prompt ideal. Una vez que el usuario obtiene una respuesta que considera buena, puede hacer una pregunta adicional: “¿Qué prompt debería haberte hecho para generar la respuesta que estaba buscando?”.

Según explicó, esa táctica permite acortar el proceso para futuras consultas. La idea es guardar esa estructura y reutilizarla cuando surjan preguntas similares. En la práctica, se convierte en una forma de hacer más eficiente la ingeniería de prompts mediante una especie de ingeniería inversa.

Sin embargo, incluso después de obtener una respuesta útil, Lo cree que conviene dar un paso adicional. Recomienda formular preguntas que expongan las limitaciones del sistema. Por ejemplo, preguntar qué información faltó para hacer la recomendación o qué elementos podrían volver poco fiables ciertos resultados.

También sugiere pedir a la IA que explicite su nivel de incertidumbre. Entre las preguntas posibles están: qué tan convencida está de que esa es la respuesta correcta, qué incertidumbres tiene y qué cosas no sabe que necesitaría saber para llegar a una conclusión firme.

Ese ejercicio puede ser muy valioso en finanzas, porque obliga al modelo a reconocer los bordes de su conocimiento. En lugar de aceptar una respuesta cerrada, el usuario pasa a ver el rango de duda que existe detrás de ella.

Harrison agregó otra práctica que considera esencial: exigir al sistema que enumere sus fuentes. Incluso, dijo, el usuario puede pedir que limite esas fuentes a materiales que cumplan ciertos criterios de calidad. Si no se le exige verificar las fuentes, lo que entregará será una opinión, y eso no es necesariamente lo que se busca en una decisión financiera.

El problema del contexto personal y el rol del asesor humano

Más allá de la calidad de los prompts, ambos especialistas dejaron claro que la situación financiera de una persona contiene capas de contexto que no siempre son fáciles de trasladar a un chatbot. Ingresos variables, deudas, objetivos familiares, cambios laborales, herencias, tolerancia emocional al riesgo y obligaciones fiscales locales pueden alterar por completo una recomendación.

Harrison sostuvo que un planificador financiero humano puede extraer de su cliente muchas de esas sutilezas durante una conversación. El usuario promedio, en cambio, no necesariamente sabrá si está incluyendo todos esos matices al escribir sus prompts.

Por eso, buscar consejo en IA puede implicar un paso delicado. Para que el sistema formule una opinión y haga una recomendación, el usuario debe entregarle suficiente información sobre su situación. Y ese nivel de detalle puede ir más allá de lo que Harrison considera prudente compartir con estas herramientas.

La conclusión general no es que la inteligencia artificial deba quedar fuera de las finanzas personales. Más bien, su uso parece más adecuado como apoyo educativo y punto de partida para organizar preguntas, identificar conceptos y explorar escenarios generales.

Cuando la consulta requiere cálculos exactos, evaluación tributaria detallada o recomendaciones de alto impacto sobre el patrimonio personal, la cautela aumenta. En esos casos, la velocidad y aparente confianza de la IA pueden ser una ventaja engañosa.

En un entorno donde millones de personas ya están actuando según consejos entregados por sistemas generativos, la calidad del prompt deja de ser un detalle técnico. Se vuelve una barrera práctica entre una ayuda razonable y una recomendación con potencial de error.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín