Logo Computerhoy.com

Las fuerzas del orden utilizan cada vez más la inteligencia artificial pero no entienden cómo funciona, según este estudio

Robot policía

Si bien los avances en inteligencia artificial pueden ser positivos para ayudar a las fuerzas del orden a atrapar a los delincuentes, también es un arma que no es infalible y eso podría causar problemas éticos.

Cada vez más las fuerzas del orden como el ejército o la policía se amparan en distintas tecnologías de inteligencia artificial para avanzar sobre el terreno, o para hacer frente a los delincuentes, y no solo a los piratas informáticos.

El problema que hay al respecto es que muchos responsables de las fuerzas del orden no entienden exactamente cómo funciona la inteligencia artificial, lo que podría dar, como resultado, arrestos por error o incluso afrontar misiones de forma incorrecta, y eso dice expresamente este estudio.

Así lo señalan distintos investigadores de la Universidad Estatal de Carolina del Norte, que afirman que la inteligencia artificial está en su adolescencia, pero que las fuerzas del orden ya la están integrando como vigilancia predictiva, reconocimiento facial y demás pero “sin entender exactamente cómo funcionan”.

Descubrimos que los participantes del estudio no estaban familiarizados con la IA ni con las limitaciones de las tecnologías de IA", afirma Jim Brunet, coautor del estudio y director de la Iniciativa de Liderazgo en Seguridad Pública de NC State.

Esto incluyó tecnologías de inteligencia artificial que los participantes habían usado en el trabajo, como reconocimiento facial y tecnologías de detección de disparos", dijo.

El problema que existe, según los investigadores

Parte del problema “es la falta general de conocimiento de los oficiales de policía sobre las capacidades de la IA y cómo funcionan”, dijo Ronald Dempsey, el primer autor del estudio y exestudiante graduado en NC State.

Eso hace que les resulte difícil o imposible apreciar las limitaciones y los riesgos éticos. Puede plantear problemas significativos tanto para las fuerzas del orden público como para el público”, añade Dempsey.

Si las tecnologías emergentes de IA están bien reguladas y cuidadosamente implementadas, un bien de seguridad pública puede aumentar potencialmente la confianza de la comunidad en la vigilancia y el sistema de justicia penal”, afirma el estudio.

Sin embargo, los participantes del estudio expresaron su preocupación por los riesgos del sesgo del algoritmo (desafíos de diversidad y representatividad), el desafío de replicar el factor humano de la empatía y las preocupaciones sobre la privacidad y la confianza”, añade.

También es importante comprender que las herramientas de IA no son infalibles”, dijo Dubljević. “La IA está sujeta a limitaciones. Y si los funcionarios encargados de hacer cumplir la ley no comprenden esas limitaciones, pueden otorgar más valor a la IA de lo que se justifica, lo que puede plantear desafíos éticos en sí mismo”.

Siempre hay peligros cuando las fuerzas del orden adoptan tecnologías que no se desarrollaron pensando en las fuerzas del orden”, añade Brunet. “Esto ciertamente se aplica a las tecnologías de inteligencia artificial, como el reconocimiento facial. Como resultado, es fundamental que los funcionarios encargados de hacer cumplir la ley tengan alguna capacitación en las dimensiones éticas que rodean el uso de estas tecnologías de inteligencia artificial”.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.