Bienvenido al fin de semana, donde intercambiamos evaluaciones por la risa del vientre y dejamos caer nuestro cabello, en sentido figurado, por supuesto, en la frontera salvaje de la IA en finanzas. Esta semana, estamos examinando cómo los altos ejecutivos ejercen inteligencia artificial, desde lo real informado al idiota idiota, al enfatizar los bancos, los pagos, las fintech y la economía digital.
Ai Ai Avatar: Cuando el jefe se vuelve digital
Comencemos con el zumbido caso de Klarna, el fintech sueco que se ha convertido en un póster para la experimentación de la IA ejecutiva. En un movimiento que podría haber sido eliminado de un guión de ciencia ficción, CEO de Klarna Sebastian Siemiatkowski Recientemente, debutó en su propio Doppelgänger para llamadas de ingresos, con una chaqueta marrón y un facsímil digital casi perfecto de su voz. El avatar entregó los resultados del primer trimestre de la compañía con una cara impasible (literalmente, sin parpadeo), mientras que el verdadero Siemiatkowski intervino para Q&R. La torsión? Le encantaba tanto que planea continuar usando el avatar para futuras presentaciones.
Pero Klarna no se detuvo allí. La compañía también lanzó un “CEO de línea directa” impulsada por AI, permitiendo a los clientes chatear directamente con una versión digital de Siemiatkowski. Imagine llamar al servicio al cliente y obtener el CEO, de alguna manera, en línea. El CEO de AI escucha, responde en tiempo real e incluso resume los comentarios de los equipos de productos. Es un medio inteligente, aunque un poco extraño, para reunir las ideas de los usuarios, y él ya está vivo en los Estados Unidos y Suecia. La única pregunta: ¿deberíamos ser halagados o entrar en pánico cuando la voz del jefe es realmente un bot?
AI Wizards: Lo bueno, lo malo y “¿Realmente envié eso?”
En el mundo de las comunicaciones ejecutivas, AI deja su huella como el último fantasma. Harvard Business Review recientemente destacado Los riesgos de los CEO que usan inteligencia artificial para escribir mensajes, señalando que cuando las personas sospechan que una IA genera un correo electrónico, tienden a notarlo como menos útil, incluso si realmente ha sido escrito por un humano. Sin embargo, la atracción de asistentes de correo electrónico de IA es innegable. Herramientas como Superhuman permiten a los gerentes escribir, enviar y seguir correos electrónicos en una fracción de tiempo, liberando horas para trabajos de alto impacto. La mejor parte? Los gerentes pueden describir sus pensamientos en pulgas, dejarlo ejecutarlo en una historia y agregar un toque personal antes de golpear el envío.
Pero como con cualquier tecnología nueva, hay espacio para error. Imagine al CEO que accidentalmente envía una propuesta en el código de Python en lugar de un inglés simple, o peor, cuya IA asistente escribe una oferta legalmente vinculante con una falla de mecanografía. Aunque estos escenarios aún no han llegado a los titulares de los servicios bancarios, otras industrias han visto chatbots para sembrar a los clientes, constituyen políticas inexistentes e incluso crean sus propios idiomas cuando quedan sin control. Es un recordatorio de que, a pesar de todo su poder, la inteligencia artificial todavía necesita una red de seguridad humana.
El lado divertido de la IA: cuando la tecnología está mal (o simplemente rara)
Ninguna discusión sobre la IA ejecutiva estaría completa sin un guiño en el lado más ligero. Tomemos el caso de una verificación de identidad suministrada por AI Fintech sistema¿Quién habría rechazado la licencia de conducir de un usuario, ocho veces, sin importar cómo fue fotografiado o escaneado? Fue solo después de que un humano intervino (y el usuario proporcionó todas las formas posibles de identificación) fue el problema resuelto. Punchline? La inflexibilidad de la IA ha transformado a los empleados en “sirvientes indefensos”, esperando que el algoritmo apruebe la apelación final.
Luego, está el curioso caso del chatbot de Air Canada, que prometió a un cliente un duelo de luto que no existía, un error que ganó la aerolínea en agua caliente con los reguladores. La lección? Incluso la inteligencia artificial más avanzada puede equivocarse, especialmente cuando se deja interpretar políticas complejas desatendidas.
Y no olvidemos el momento en que el chatbot de una compañía de entrega, después de ser causado por usuarios, comenzó a jurar entre los clientes. El incidente se ha convertido en una sensación viral y una historia de prudencia sobre la importancia de la moderación en las herramientas de conversación de IA.
Los usos más efectivos: donde brilla la IA
Para todas las risas, la IA también da serios resultados. American Express, por ejemplo, usó modelos de aprendizaje profundo para analizar miles de millones de transacciones, detectar fraude en tiempo real y ofrecer ofertas personalizadas a los clientes. EL resultado? Tasas de detección de fraude más altas, menos falsos positivos y campañas de marketing con un mejor retorno de la inversión.
Klarna, a pesar de su reciente pivote en el servicio al cliente humano, ha experimentado ganancias dramáticas de eficiencia de EA. El chatbot de IA de la compañía logró 2.3 millones de conversaciones en un mes, equivalente al trabajo de 700 agentes de tiempo completo, y redujo los tiempos de resolución promedio de 12 minutos a menos de dos. Los ingresos de los empleados se han disparado y Klarna redujo los costos al reemplazar a más de 1.200 vendedores SaaS externos con su propia batería alimentada por IA.
El punto a tomar: AI es una herramienta, no un juguete
Mientras que los líderes continúan experimentando con AI, ya sea como una cuenta, los escritores de fantasmas o representantes del servicio al cliente, la frontera entre la innovación y los dispositivos se está adelgazando. Los usos más efectivos combinan la velocidad y la escala de la IA con el juicio humano y la empatía. El más divertido? Bueno, estas son las historias que contaremos en las conferencias para los próximos años.
Aquí están los CEO que no tienen miedo de dejar ir al escenario: no olviden mantener a un humano en el ciclo, a menos que solo haya querido que su próxima llamada de ingresos pueda recordar todas las malas razones.