Logo Computerhoy.com

La aerolínea Air Canada tendrá que pagar a un cliente porque su IA se inventó la política de devolución

La aerolínea Air Canada tendrá que pagar a un cliente porque su IA se inventó la política de devolución

Gettyimages

  • Un cliente de Air Canada recibió un descuento por duelo a través de un chatbot de la compañía.
  • La aerolínea se negó a hacer el descuento, alegando que no es responsable de lo que diga el chatbot.
  • El caso ha acabado en los tribunales.

La inteligencia artificial han llegado como un huracán, y las empresas se han lanzado a adoptarla en todos los sitios… sin comprobar si realmente funciona. Un chatbot de Air Canada se inventó una devolución del dinero por duelo a un cliente, pero la aerolínea se ha negado a pagar, alegando que no es responsable de lo que diga que chatbot. El juez no opina lo mismo.

El incidente ha puesto en marcha un debate sobre hasta qué punto una empresa es responsable de la inteligencia artificial que usa… ¿O lo son sus creadores? Lo que no parece aceptable, es que la responsabilidad sea del cliente.

Si una compañía utiliza un chatbot para ofrecer servicios a los clientes, actúa como un trabajador de la empresa, y por tanto ella es responsable de lo que diga o haga ese trabajador. Air Canada no piensa lo mismo.

La IA de Air Canada que se inventó la política de devolución

Según cuenta el medio local Vancouver Sun, el incidente ocurrió en 2022, cuando Jake Moffatt se puso a buscar un billete de avión urgente a Toronto, tras el fallecimiento de su abuela.

En la web de Air Canada le atendió un chatbot. El billete costaba 1.640 dólares canadienses ida y vuelta, pero el chatbot le dijo que en los próximos 90 días podía solicitar una "devolución por duelo", debido al fallecimiento de su abuela, y la compañía le devolvería 880 dólares.

Consejos y trucos para comprar billetes de avión baratos

Ya de vuelta a casa tras el funeral, Jake Moffatt solicitó la devolución a Air Canada, pero descubrió con asombro que la compañía no ofrecía este servicio.

Reclamó a la aerolínea aportando capturas de pantalla de su charla con el chatbot de Air Canada, pero la compañía argumentó que no puede ser considerada responsable de la información proporcionada por el chatbot, porque "el chatbot es una entidad legal separada que es responsable de sus propias acciones".

Lógicamente, el cliente denunció el caso, y el juez le ha dado la razón. Según explica el miembro del tribunal Christopher Rivers en la sentencia, "El estándar de cuidado aplicable requiere que una empresa tenga un cuidado razonable para garantizar que sus representantes no sean engañosos".

Y continúa: "el chatbot sigue siendo una parte del sitio web de Air Canada. Debería ser obvio para Air Canada que es responsable de toda la información en su sitio web".

verticalImage1707859623063

La defensa argumentó que en otra parte de la web se indicaban las condiciones de las devoluciones, y no se contempla la devolución por duelo. Pero, de nuevo, el juez argumenta que el cliente no está obligado a chequear dos veces la misma información en diferentes sitios de la web, y tampoco puede saber cuál es la buena y la mala información.

Air Canada ha aceptado la sentencia y no recurrirá. Ha pagado la devolución y los costes de los abogados del cliente. Ha retirado el chatbot de su web.

Google acelera: una semana después de Gemini, llega Gemini 1.5

Muchas empresas están adoptando la inteligencia artificial para ofrecer servicios. Y aunque, por supuesto, están en su derecho de hacerlo, parece lógico que también se responsabilicen del trabajo que lleva a cabo la IA, porque a fin de cuentas es un empleado más que trabaja a su cargo.

El caso del chatbot de Air Canada que se inventó la política de devolución ha sentado precedentes legales, a falta de una legislación que regule todos estos temas de una forma más precisa.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.