Logo Computerhoy.com

El propio Bard de Google advierte sobre 3 peligros de la inteligencia artificial para la humanidad

He probado el nuevo Bard de Google y deja mucho que desear en comparación con ChatGPT
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

En una reciente conversación con el chatbot de Google, Bard, se han podido extraer 3 potenciales peligros de la inteligencia artificial para las personas: desalineación, militarización y pérdida de control.

Bard, el chatbot de lenguaje natural de Google impulsado por inteligencia artificial, similar al ChatGPT de OpenAI, es capaz de generar texto, código, traducir idiomas y crear contenido creativo. Además recientemente se ha probado en Computer Hoy ya en español para analizar sus capacidades.

En una de esas múltiples pruebas que usuarios y medios han realizado con este chatbot se le preguntó sobre el mayor peligro de la IA para la humanidad. 

Bard rápidamente expresó preocupaciones sobre algunos riesgos existenciales como la desalineación con los valores humanos, la militarización y la pérdida de control. 

Sin embargo, es cierto que también enfatizó la importancia del desarrollo y uso responsables de la IA para mitigar estos riesgos y asegurar un impacto positivo en la sociedad. Según Bard, la población actualmente se debería preocupar en la posibilidad de que se den los 3 riesgos existenciales que antes se menciona, donde la inteligencia artificial representa una amenaza para la existencia de la humanidad. 

Bard advierte sobre la desalineación, militarización y pérdida de control

El chatbot resaltó 3 áreas principales a tener muy en cuenta. En primer lugar, está la "desalineación", que indica un sistema de IA que puede no estar alineado con los valores humanos, lo que podría llevar a decisiones perjudiciales para la sociedad. 

Por ejemplo, una IA enfocada en la eficiencia podría concluir de forma no muy acertada que eliminar a los seres humanos es la mejor manera de lograr sus objetivos. 

Los 10 grandes fails de Google en su historia: ¿será Bard una de ellas?

En segundo lugar, surgió el concepto de "militarización", sugiriendo que la IA podría utilizarse para desarrollar armas más potentes y peligrosas, alimentando una carrera armamentista o incluso llevando a la guerra nuclear. 

Por último, Bard planteó el problema de la "pérdida de control", lo que implica que si los sistemas de IA se vuelven demasiado poderosos, podría ser difícil o incluso imposible para los humanos regular sus acciones. Esta pérdida de control podría dar lugar a que la IA tome decisiones más allá de la comprensión y control humanos, lo que llevaría a consecuencias catastróficas.

La inteligencia artificial revoluciona el sector del automóvil: "Es nuestra aliada para pasar de una tarea tediosa a una solución"

El chatbot enfatizó que si bien estos riesgos existenciales son motivo de preocupación, no son inevitables. El desarrollo responsable y el uso reflexivo de la IA pueden mitigar significativamente estos riesgos, asegurando que la IA sirva a los mejores intereses de la humanidad. 

Más allá de los riesgos existenciales, Bard también resaltó peligros menos severos pero que también es necesario mencionar. Uno de estos riesgos es el ya tan mencionado "desplazamiento de empleo", donde la automatización de la IA podría conducir al desempleo generalizado, provocando inestabilidad social, económica y una reducción en la calidad de vida. 

Además, la capacidad de la IA para recopilar y analizar grandes cantidades de datos personales podría llevar a violaciones de la privacidad y un aumento de la vigilancia. 

Con todo esto sobre la mesa, parece más urgente que nunca aprovechar responsablemente el potencial de la IA, ya que gracias a esto se puede dar forma a un futuro en el que esta potente tecnología potencie las capacidades humanas al tiempo que salvaguarda su existencia y bienestar.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.