Logo Computerhoy.com

Google alerta a sus empleados sobre Bard: deben vigilar su uso y evitar generar código con el chatbot

Google alerta a sus empleados sobre Bard: deben vigilar su uso y evitar generar código con el chatbot
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Alphabet, la empresa matriz de Google, ha aconsejado a sus empleados que tengan mucho cuidado con cómo usan su información confidencial con los chatbots, incluido su propio Bard, en un esfuerzo por proteger la privacidad de sus datos.

Hace unos días ya se habló de este tema: el avance de chatbots como ChatGPT u otros que tienen un gran potencial para generar contenido en segundos también plantean preocupaciones en términos de ética, seguridad y confidencialidad de los datos corporativos.

Grandes nombres de empresas como Samsung, Apple o  JPMorgan Chase han decidido dar un paso hacia atrás con respecto a ChatGPT y ahora se ha podido conocer que Google —tal y como informa Reutersestá advirtiendo a su personal sobre el cuidado que deben tener al usan los chatbots, incluido su propio Bard.

Estas gran compañía se posiciona en el mismo punto que el resto y pese a reconocer sus innegables ventajas dice que también conllevan un riesgo potencial de fuga de datos. Como informa Reuters, Google también ha advertido a los empleados que no usen la función de sugerencia de código del chatbot, ya que podría no ser confiable o segura. 

La compañía dijo que Bard sigue siendo una herramienta útil y, no obstante, ayuda a los programadores, pero también quiere ser transparente sobre sus limitaciones.

ChatGPT o Bard sí pero con precaución por el momento

Es importante recordar que los chatbots son herramientas basadas en algoritmos y aprendizaje automático y aunque pueden procesar grandes cantidades de información y generar respuestas increíbles, su conocimiento está limitado a los datos con los que han sido entrenados. Además, pueden presentar problemas como la generación de respuestas inexactas o sesgadas en determinadas circunstancias.

Las empresas y desarrolladores que trabajan en estos chatbots son conscientes de estas limitaciones y continúan trabajando en su mejora constante. 

ChatGPT y el plagio en los TFG: ¿amigo o enemigo? esto opinan los expertos

La retroalimentación de los usuarios es una parte fundamental en este proceso, ya que ayuda a identificar errores y áreas de mejora, pero muchas herramientas como Bard aún están en una fase de desarrollo algo temprana y las personas —ya sean empleados de Google o no—, están delegando demasiado sus funciones en una herramienta que pese a sus virtudes aún tiene trabajo por hacer.

A medida que la tecnología avanza, es probable que se vean mejoras significativas en la precisión y la capacidad de los chatbots para comprender y responder adecuadamente a una amplia variedad de preguntas y situaciones, así como una seguridad en los datos privados aumentada. 

Sin embargo, es importante mantener un nivel de precaución y no depender exclusivamente de ellos para tareas críticas o decisiones importantes.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.