Logo Computerhoy.com

BlenderBot 3, el nuevo chatbot de Meta, tarda solo cinco días en volverse racista y conspiranoico

Inteligencia Artificial

DepositPhotos

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Solo cinco días han tardado los testers en hacer saltar las alarmas con respecto a un nuevo chatbot, esta vez de Meta, por sus comentarios bastante preocupantes.

Hace unos días Meta lanzó su nuevo chatbot basado en la inteligencia artificial, llamado BlenderBot 3, que se supone que es capaz de mantener una conversación con casi cualquier persona en Internet sin caer en algún que otro problema que ya hemos vivido.

Si recordamos, en julio, Google despidió a un ingeniero por decir que su chatbot LaMDA era sensible y estaba lanzando algún que otro mensaje extraño. Además afirmaron que esta IA se podría considerar racista y sexista. Y en 2016, un chatbot de Microsoft llamado Tay fue desconectado en 48 horas después de que empezara a alabar a Adolf Hitler

"BlenderBot 3 está diseñado para mejorar sus habilidades conversacionales y su seguridad a través de la retroalimentación de las personas que chatean con él", vende Meta en una entrada de blog sobre el nuevo chatbot, "centrándose en la retroalimentación útil mientras evita aprender de las respuestas inútiles o peligrosas".

Pues bien, con todo esto sobre la mesa, BlenderBot 3 ya vemos cómo nació con la idea de resolver todos estos problemas y convertirse realmente en un chatbot útil e inteligente. Sin embargo, nada más lejos de la realidad. Esta novedad ya está haciendo una serie de afirmaciones falsas basadas en las interacciones que tuvo con humanos reales en línea. 

Por ejemplo, en Mashable destacan algunas afirmaciones de que Donald Trump ganó las elecciones presidenciales de 2020 en Estados Unidos y que actualmente es presidente, teorías conspiratorias antisemitas, así como comentarios en los que se acusa a Facebook de todas sus "noticias falsas" (y eso que es de Meta).

Al conocer esto, la compañía ha respondido: "los chatbots de IA conversacional a veces imitan y generan comentarios inseguros, tendenciosos u ofensivos, por lo que hemos realizado estudios y desarrollado nuevas técnicas para crear salvaguardias para BlenderBot 3. A pesar de este trabajo, todavía puede hacer comentarios ofensivos, por lo que estamos recogiendo opiniones".

Destacar que ya desde su blog, Meta se anticipa a estos problema y ya afirma de la posibilidad de que esto ocurra y exige a los probadores que hagan sus test de forma consciente y responsable. Sin embargo, parece que les llama más la atención explorar los límites de estas IA y volver a dar que hablar con respecto a un problema que ya sabemos que existe.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.