La confianza es la superficie
La confianza es la base de los intercambios comerciales, de la economía de mercado y, por extensión, de las relaciones humanas. Por eso me parece importante atacar el fraude
Durante años, en Rappi lidiamos con problemas de suplantación de identidad y otras formas de fraude. Con más de 65,000 personas registrándose como rappitenderos o aliados en Rappi mensualmente, las tasas de fraude y suplantación de identidad durante el proceso de vinculación a los servicios de Rappi alcanzaron hasta un 60% mensual1.
Así, validar quién entra y quién no es una tarea que puede tomar largos periodos de tiempo al equipo de adquisición de usuarios de Rappi.
Como seres humanos cerramos accesos, reforzamos contraseñas, levantamos capas de verificación y asumimos que, una vez adentro, la persona del otro lado seguía siendo quien decía ser. Sin embargo, gracias al desarrollo tecnológico esas asunciones básicas sobre confianza se invirtieron. Los deepfakes rompieron esa intuición básica: hoy la apariencia de legitimidad puede fabricarse a escala, con costo bajo y con una calidad suficiente para atravesar procesos que antes parecían sólidos.
Dos pesos de contexto: un deepfake es un contenido multimedia (video, audio, imagen) generado por IA que falsifica la apariencia o voz de una persona real con realismo suficiente para engañar a humanos y sistemas.
Según IBM, entre 2023 y 2024, las campañas de phishing y social engineering se tradujeron en secuestro de cuentas, robo de activos, robo de datos, suplantación de identidad y daño reputacional en distintas industrias. En otras palabras, ya no estamos frente a un truco marginal de internet, sino frente a una infraestructura de engaño que aprende rápido, se abarata rápido y se distribuye más rápido todavía2.
La economía del engaño
IBM dice que el costo promedio de crear un deepfake puede ser de US$1.33, mientras que el costo global esperado del fraude con deepfakes en 2024 se estimó en US$1 mil millones. Esa diferencia no solo habla de tecnología, habla de asimetría pura: un atacante puede invertir casi nada para intentar afectar patrimonios, operaciones y reputaciones que tardaron años en construirse.
Ese desbalance cambia la forma en que pienso el riesgo. Cuando el costo de producir engaño cae tanto, la fricción ya no está en la creación sino en la distribución, y ahí entran los call centers, los help desks, el correo, las reuniones por videollamada y cualquier canal donde la voz o la imagen todavía cargan demasiado peso probatorio. IBM menciona casos concretos de llamadas con clonación de voz a bancos y entidades financieras, y también un ataque a Retool que terminó en pérdidas millonarias para clientes de la compañía3.
La superficie humana
La parte más delicada no es técnica, es humana. Los deepfakes funcionan porque explotan hábitos normales de trabajo: contestar una llamada urgente, aprobar una transferencia, confiar en una voz conocida, abrir un archivo, creer que un ejecutivo pidió algo con premura. IBM explica que la clonación de voz puede hacerse con menos de un minuto de muestras de audio, suficiente para poner en riesgo sistemas de autenticación por voz y flujos donde una llamada parece más confiable que un correo.
A common method behind deepfake audio is voice cloning, involving fake speech created with less than a minute of voice samples of real people. Voice cloning is a particular concern in industries that use voice biometric verification to access customer accounts. Companies that receive a high volume of phone calls as part of their business report constant deepfake attacks on their infrastructure via voice cloning efforts. — IBM
Eso me lleva a una conclusión bastante simple: la infraestructura de confianza que usamos en empresas y gobiernos fue diseñada para un entorno donde imitar a una persona era caro, lento y torpe. Hoy esa imitación puede ser rápida, creíble y barata. Y cuando eso pasa, la pregunta importante deja de ser quién tiene acceso a un sistema y pasa a ser cómo verificamos presencia, intención y autenticidad en tiempo real.
Finanzas, reputación y gobierno
IBM no limita el problema al fraude financiero. También habla de seguros, medios, plataformas sociales y campañas de desinformación política, con impacto directo en mercados, audiencias y confianza pública. La consecuencia más seria de un deepfake no siempre es una transferencia fraudulenta; muchas veces es la erosión lenta de la credibilidad de todo lo que una organización publica, afirma o certifica.
La detección en tiempo real, usando IA para atrapar IA, se vuelve esencial para proteger intereses financieros y reputacionales. Eso me parece correcto, pero incompleto si uno lo deja solo en la capa tecnológica. La defensa también requiere procesos, entrenamiento, doble verificación, trazabilidad y una cultura interna que asuma que una voz conocida ya no basta como prueba suficiente.
Según la compañía de ciberseguridad Crowdstrike, en 2023 se detectaron 500,000 archivos deepfake, cifra que explotó a 8 millones en 2025, con intentos de fraude cada 5 minutos y pérdidas promedio de US$500,000 por incidente. Para empresas grandes, el costo sube a US$680,000, mientras Deloitte proyecta que el fraude con IA generativa saltará de US$12.3 mil millones en 2023 a US$40 mil millones en 2027, con un CAGR del 32%4.
El crecimiento es brutal en economías digitales: Norteamérica vio un aumento del 1,740% en fraude deepfake entre 2022 y 2023, APAC del 1,530%, con pérdidas superiores a US$200 millones solo en Q1 2025. Ataques de clonación de voz convierten el 77% de víctimas en pérdidas, y la detección humana solo acierta el 24.5% en videos de alta calidad. Bancos y fintech son el objetivo principal, con deepfakes burlando KYC y liveness detection, una tecnología de seguridad biométrica diseñada para confirmar que la persona que interactúa con un sistema es un ser humano real y presente, y no una imitación artificial.
¿Cómo impacta esto a nuestra región?
En Latinoamérica esto tiene una carga adicional. Tenemos una región con crecimiento digital acelerado, presión por captar usuarios rápido, equipos que operan con recursos limitados y una tendencia histórica a resolver demasiadas cosas por WhatsApp, llamada o confirmación verbal. Ese entorno es extraordinario para escalar negocio, pero también es perfecto para que un deepfake encuentre una brecha y la convierta en pérdida.
Por eso, este es un problema que pasa por diseño organizacional, gobierno interno y cómo se construye confianza en sistemas donde el humano sigue siendo la última línea de defensa. Si un proceso depende demasiado de reconocer una voz, una cara o un tono de urgencia, ya está demasiado expuesto.
Mi hermano Daniel Bilbao se metió de frente con Truora a implementar soluciones de fraude en Rappi y ayudó a reducir en 99% el fraude de Rappi-tenderos y aliados con validación de antecedentes, procesando más de 3,8 millones de validaciones entre 2019 y 2023.
Se obsesionó con el problema y terminó organizando el FinTrust Summit en Ciudad de México el próximo 21 de mayo. Es un evento en el que van a estar los tomadores de decisiones más relevantes de fintech y banca en México: CEOs, directores financieros y personas que entienden la importancia de meterle una capa de seguridad significativa a los movimientos de plata de la gente.
Yo voy a hablar de lo que más me gusta: cómo se escalan empresas en LATAM sin morir en el intento. El evento será en el Museo Papalote, las entradas están disponibles en el botón de abajo.





