Logo Computerhoy.com

Una aseguradora es criticada por utilizar su IA para rechazar indemnizaciones según las expresiones faciales del cliente

Reconocimiento Facial

DepositPhotos

En su búsqueda de posibles fraudes al seguro, Lemonade Insurance se enfrenta a una avalancha de críticas en redes por presumir de su sistema de inteligencia artificial para rechazar indemnizaciones.

La aseguradora Lemonade Insurance ha querido presumir de su procedimiento digital y sistemas de inteligencia artificial en Twitter, pero se ha encontrado con una respuesta amarga. La compañía ha tratado de defenderse de de las acusaciones de discriminación y prejuicio.

"Cuando un usuario presenta un siniestro, graba un video en su teléfono y explica lo sucedido. Nuestra IA analiza cuidadosamente estos videos en busca de signos de fraude. Puede captar señales no verbales que las aseguradoras tradicionales no pueden" indicaba la compañía en ese hilo de Twitter que  ha levantado ampollas.

En ese hilo aseguran que su sistema registra y analiza 100 veces más datos que las compañías de seguros tradicionales, pero no explican a qué datos se refieren, cómo ni cuándo los recopilan. Con todos ellos la inteligencia artificial realizaría una estimación de riesgo para cada caso en busca de fraudes.

Tras las críticas, Lemonade Insurance ha borrado el hilo, aunque está disponible en la web archive y algunos usuarios han compartido capturas. En los mensajes, la compañía presume de los beneficios económicos que ha conseguido con este sistema. Explican que antes pagaba más de lo que ganaba y que con esta IA ahora ha podido reducir considerablemente su índice de pérdidas rechazando gran parte de las indemnizaciones por siniestro a sus clientes.

"Es increíblemente insensible celebrar cómo tu empresa ahorra dinero al no pagar reclamaciones (en algunos casos a personas que probablemente estén pasando el peor día de sus vidas)", ha dicho Caitlin Seeley George, directora de campaña del grupo de defensa de los derechos digitales Fight for the Future, a Recode. 

Jon Callas, director de proyectos de tecnología de la Electronic Frontier Foundation, ha calificado estas afirmaciones como "pseudociencia" y "frenología"a ZDNet. Niega que la IA esté preparada para hacer lo que le pide Lemonade Insurance y recalca que otras empresas están invirtiendo millones en sistemas similares que acaban demostrando sesgos por género o color de piel.

La aseguradora se ha disculpado por redes y  niega que las indicaciones de su IA se apliquen de forma automática. "Nuestros sistemas no evalúan las afirmaciones en función de los antecedentes, el género, la apariencia, el tono de la piel, la discapacidad o cualquier característica física (ni evaluamos ninguno de estos por proxy)" ha dicho. 

Aún así, las declaraciones de Shai Wininger, cofundador y director de operaciones de Lemonade hace un año han resonado más fuertes que nunca: "En Lemonade, un millón de clientes se traduce en miles de millones de puntos de datos, que alimentan nuestra IA a una velocidad cada vez mayor".

Expertos en inteligencia artificial recalcan que esta tecnología aún no está preparada para detectar el estado emocional o mental de una persona que está pasando por un momento traumático como un incendio en su casa o un accidente de coche. Navin Thadani, director ejecutivo de la empresa de accesibilidad digital Evinced, reconoce que la "IA está destinada a hacer las cosas mejor, más rápido, de manera más eficiente, con menos errores que la interacción humana, pero lo que le falta es el juicio humano, la comprensión y la consideración de factores más allá de lo que está programado para evaluar".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.