Sundar Pichai, CEO de Google, sobre la IA: "puede ser muy perjudicial si se implementa incorrectamente"

"Todavía no tenemos todas las respuestas allí, y la tecnología avanza rápidamente", dijo Pichai. "¿Entonces eso me mantiene despierto por la noche? Absolutamente".
En una reciente entrevista vuelve a quedar de nuevo clara la necesidad de una inteligencia artificial controlada bajo un marco regulatorio. Esta vez ha sido Sundar Pichai, CEO de Google, en conjunto con la empresa Alphabet —empresa matriz de Google— quienes, de nuevo, se han pronunciado a favor de esto.
Pichai dijo que "la urgencia de trabajar y desplegarla de manera beneficiosa, pero al mismo tiempo puede ser muy perjudicial si se implementa incorrectamente" y que esa problemática le mantenía despierto cada noche,
Mencionar al respecto que la Unión Europea y EE. UU. ya están comenzando a desarrollar propuestas regulatorias, pero una temprana alineación internacional será fundamental para que los estándares globales funcionen. "Las empresas como la nuestra no pueden simplemente crear una nueva tecnología prometedora y dejar que las fuerzas del mercado decidan cómo se utilizará", explicaba el CEO de Google.
Sin embargo, la realidad es muy diferente a lo que muchos piensan. Uno de los grandes pasos en este sentido y a nivel europeo se llama 'Ley de Inteligencia Artificial' y recientemente se pudo conocer cómo estos planes vuelven a ser echados para atrás debido a una falta de consenso por parte de algunos legisladores en relación a cómo calificar las diferentes herramientas y aplicaciones que surjan.
Sundar Pichai urge sobre la necesidad de regular la inteligencia artificial
Ya en 2018 Google publicó sus propios principios de IA para ayudar a guiar el desarrollo ético y el uso de la tecnología. Estas pautas buscan evitar sesgos, probar rigurosamente la seguridad, diseñar teniendo en cuenta la privacidad y hacer que la tecnología sea responsable.
"También especifican áreas en las que no diseñaremos ni implementaremos IA, como para apoyar la vigilancia masiva o violar los derechos humanos", añade.
También han ido desarrollado herramientas para ponerlas en práctica, como probar las decisiones de IA para determinar si son justas y realizar evaluaciones independientes de derechos humanos de nuevos productos. "Creemos que cualquier empresa que desarrolle nuevas herramientas de IA también debe adoptar principios rectores y procesos de revisión rigurosos", explica Sundar Pichai.
Por otro lado, el exdirector ejecutivo de Google, Eric Schmidt, instó a las empresas tecnológicas globales a unirse y desarrollar estándares y medidas de protección apropiadas, advirtiendo que cualquier desaceleración en el desarrollo "simplemente beneficiaría a China".
Esa es la realidad, un paso en falso o incluso una moratoria de 6 meses como algunos expertos han propuesto solo beneficiaría a este país competidor, dándoles tiempo para su desarrollo y mejora.
La IA tiene el potencial de mejorar miles de millones de vidas, y el mayor riesgo puede ser no hacerlo. "Al asegurarnos de que se desarrolle de manera responsable de una manera que beneficie a todos, podemos inspirar a las generaciones futuras a creer en el poder de la tecnología tanto como yo", finaliza.
Otros artículos interesantes:
- Google no quiere quedarse atrás e integrará inteligencia artificial a su buscador
- Sony llevará su inteligencia artificial a Raspberry Pi
- No dejes escapar las Cazatendencias de AliExpress y aprovecharte de todos sus descuentos
Descubre más sobre Carolina González Valenzuela, autor/a de este artículo.
Conoce cómo trabajamos en Computerhoy.