Blog

Noticias

Sam Altman advierte sobre una crisis de fraude debido al uso de la IA

Thalios AI en Agencia de Inteligencia Artificial México   28/07/2025   18:05:28   1002
Sam Altman advierte sobre una crisis de fraude debido al uso de la IA

La escena es poco habitual: un empresario tecnológico frente a una autoridad monetaria. El martes pasado, en el marco de la conferencia anual sobre el capital de los grandes bancos en Estados Unidos, Sam Altman, CEO de OpenAI, respondió a las preguntas incisivas de Michelle Bowman, vicepresidenta de la Reserva Federal. Lo que podría haber sido una comparecencia protocolaria terminó por convertirse en una advertencia sobre el futuro inmediato de la inteligencia artificial: no es sólo una cuestión de productividad o automatización. Es una cuestión de confianza, seguridad y arquitectura institucional.

La autenticación en crisis: cuando la IA rompe los candados tradicionales

Sam Altman no se anduvo con rodeos. Planteó un punto que, aunque ya es tema de discusión entre especialistas en ciberseguridad, rara vez se menciona con tanta franqueza en foros públicos: los sistemas tradicionales de autenticación están quedando obsoletos. Literalmente.

En palabras de Altman, seguir confiando en la huella vocal para autorizar transferencias bancarias es una “locura”. Su preocupación no es hipotética: los modelos generativos actuales —como los basados en transformadores y aprendizaje profundo— ya pueden imitar voces humanas con una fidelidad casi perfecta. Basta con unos segundos de audio para clonar la voz de una persona, generar mensajes convincentes y engañar a sistemas automatizados.

Y no es sólo la voz. Las selfies que saludan ante la cámara, los videos de “prueba de vida” utilizados por algunas fintechs y sistemas gubernamentales, o incluso el reconocimiento facial sin supervisión humana directa, se están volviendo triviales de falsificar. Los deepfakes ya no son una curiosidad. Son una amenaza directa a los mecanismos más comunes de identidad digital.

En este contexto, Altman fue categórico: “La IA ha vencido por completo a la mayoría de los medios por los cuales las personas se autentican actualmente”. La única excepción, irónicamente, son las contraseñas, un sistema que hasta hace poco era considerado el eslabón más débil. Pero incluso éstas pueden quedar comprometidas si se combina ingeniería social con IA generativa.

Modelos generativos y fraude bancario: el riesgo silencioso

Las implicaciones de esta vulnerabilidad no son sólo técnicas. Son estructurales. El sistema financiero moderno está construido sobre capas de confianza digital: bancos, plataformas de inversión, aplicaciones móviles y canales automatizados que verifican identidades, aprueban operaciones y ejecutan transacciones sin intervención humana directa.

La posibilidad de que estas capas sean penetradas por agentes maliciosos —sean actores individuales, redes criminales o gobiernos hostiles— abre un frente nuevo en la discusión sobre seguridad bancaria. A diferencia del fraude tradicional, este nuevo tipo de amenaza puede ser masivo, escalable y difícil de rastrear.

Altman no exagera cuando anticipa una crisis de fraude si no se reformulan los estándares de autenticación. Ya existen casos documentados en los que voces clonadas han sido utilizadas para suplantar identidades de directivos y ordenar transferencias millonarias. Pero esto apenas es el comienzo. El ritmo de mejora de los modelos generativos sugiere que lo que hoy requiere cierta sofisticación técnica, mañana estará al alcance de cualquier usuario con acceso a una API.

Automatización del trabajo: la extinción silenciosa del soporte humano

Más allá de la seguridad, la conversación giró hacia otro ángulo menos amenazante pero igual de disruptivo: el impacto de la IA en el mercado laboral. Altman lo resumió con una frase que suena anecdótica, pero es profunda: “Hace unos años, te gustaba llamar al servicio al cliente… ahora, llamas y una IA responde. Es como una persona súper inteligente y capaz”.

No es ciencia ficción. Ya existen empresas que han sustituido casi por completo a su personal de atención al cliente por sistemas basados en modelos de lenguaje de gran escala (LLMs). Estos agentes conversacionales no solo entienden el lenguaje natural, sino que pueden acceder a bases de datos, realizar tareas administrativas, escalar tickets, e incluso vender productos con un nivel de personalización que supera al de sus contrapartes humanas.

La diferencia no es solo de costos —aunque estos se reducen drásticamente—, sino de calidad y consistencia. Las IA no se cansan, no cometen errores humanos, no requieren capacitación constante ni vacaciones. Desde la lógica empresarial, la transición es casi inevitable.

Este proceso, sin embargo, no es neutro. Miles de empleos en áreas como soporte, ventas telefónicas o gestión de reclamaciones están desapareciendo sin hacer ruido. No se trata de una sustitución masiva de un día para otro, sino de una erosión gradual que, en muchos casos, ni siquiera se percibe como despido, sino como “reestructuración”.

El factor humano sigue siendo indispensable en la medicina

Paradójicamente, Altman también dejó claro que hay límites. Y esos límites no son técnicos, sino éticos, emocionales e incluso filosóficos. Refiriéndose al campo de la salud, confesó que no está listo para delegar decisiones médicas críticas a una IA, sin que haya un humano en el circuito.

Esta postura contrasta con la narrativa dominante que promueve a la IA como herramienta diagnóstica infalible. Si bien es cierto que los algoritmos pueden detectar patrones en imágenes radiológicas con altísima precisión, la medicina es mucho más que diagnóstico. Implica juicio clínico, empatía, escucha activa, contexto social y acompañamiento.

Una IA puede sugerir un tratamiento óptimo, pero no puede consolar a una madre que acaba de recibir un diagnóstico terminal para su hijo. No puede decidir cuándo priorizar el bienestar emocional sobre la eficiencia estadística. No puede, en resumen, reemplazar la dimensión humana de la medicina.

Altman no lo dice desde el escepticismo tecnófobo, sino desde una postura de responsabilidad. Reconoce el potencial inmenso de la IA en este campo, pero también advierte sobre los riesgos de reemplazar la deliberación humana por una lógica algorítmica que, por muy potente que sea, carece de conciencia moral.

Riesgos geopolíticos: la IA como arma de desestabilización

Finalmente, la conversación se desplazó hacia un terreno delicado: la seguridad nacional. Altman advirtió sobre la posibilidad —no remota— de que actores hostiles utilicen modelos avanzados de inteligencia artificial para atacar infraestructuras críticas.

Aquí no se habla de ciberataques convencionales. Se trata de escenarios donde IA diseñadas para manipular opinión pública, alterar resultados de elecciones o vulnerar sistemas logísticos puedan ser implementadas por potencias adversarias. Es la guerra fría del siglo XXI, pero con algoritmos en lugar de misiles.

Las deepfakes políticas, los modelos que generan desinformación creíble a escala industrial, y los sistemas autónomos capaces de sabotear redes energéticas, son amenazas reales. En este contexto, la frontera entre lo civil y lo militar se difumina. La IA no distingue entre un hospital y un servidor electoral. Sólo ejecuta.

Lo más inquietante es que el acceso a estas tecnologías no está limitado a gobiernos. Empresas, grupos criminales y organizaciones extremistas también pueden utilizar IA para fines desestabilizadores. La democratización del poder computacional, combinada con modelos open-source, plantea un desafío regulatorio sin precedentes.

tags: IA, deepfakes, autenticación biométrica, fraude bancario, automatización laboral, atención al cliente, ciberseguridad, superinteligencia, Sam Altman, OpenAI

Aviso Legal:

El contenido de este blog tiene fines informativos y refleja opiniones personales sobre inteligencia artificial, automatización y tecnología. No constituye asesoramiento profesional.

Aunque en Thalios nos esforzamos por ofrecer información precisa y actualizada, no garantizamos su exactitud, integridad o vigencia. Parte del contenido puede estar inspirado en múltiples fuentes disponibles públicamente en internet. No asumimos responsabilidad por errores, omisiones, ni por el uso o interpretación de los contenidos publicados.

Los temas tratados pueden cambiar con rapidez. Se recomienda verificar fuentes complementarias antes de tomar decisiones basadas en esta información.

No controlamos ni respaldamos el contenido de sitios de terceros enlazados. Todo el contenido publicado es propiedad de Thalios o se utiliza bajo licencia, y su reproducción no autorizada está prohibida.

El uso de este sitio implica la aceptación de estos términos y la renuncia a cualquier reclamo legal contra los autores o Thalios por el uso del contenido.