Numa nota de rodapé de duas frases num volumoso parecer do tribunal, um juiz federal denunciou recentemente que os agentes de imigração usam inteligência artificial para escrever relatórios sobre o uso da força, levantando preocupações de que isso poderia levar a imprecisões e minar ainda mais a confiança do público na forma como a polícia lidou com a repressão à imigração na área de Chicago e os protestos subsequentes.
A juíza distrital dos EUA, Sara Ellis, escreveu a nota de rodapé em um parecer de 223 páginas emitido na semana passada, observando que a prática de usar o ChatGPT para redigir relatórios de uso da força mina a credibilidade dos policiais e “pode explicar a imprecisão desses relatórios”. Ela descreveu o que viu em pelo menos um vídeo de câmera corporal, escrevendo que um agente pede ao ChatGPT para compilar uma narrativa para uma reportagem depois de fornecer ao programa uma breve frase de descrição e várias imagens.
O juiz notou discrepâncias factuais entre a narrativa oficial sobre as respostas das autoridades e o que as imagens da câmera corporal mostraram. Mas os especialistas dizem que usar a IA para escrever um relatório que se baseie na perspectiva específica de um agente sem utilizar a experiência real de um agente é o pior uso possível da tecnologia e levanta sérias preocupações sobre a precisão e a privacidade.
A perspectiva necessária de um oficial
As agências de aplicação da lei em todo o país têm se esforçado para criar barreiras de proteção que permitam aos policiais usar tecnologia de inteligência artificial cada vez mais disponível, mantendo a precisão, a privacidade e o profissionalismo. Os especialistas afirmaram que o exemplo narrado no parecer não respondia a esse desafio.
“O que esse cara fez é o pior de todos os mundos. Dar a ele uma frase e algumas fotos – se isso for verdade, se foi isso que aconteceu aqui – vai contra todos os conselhos que temos por aí. É um cenário de pesadelo”, disse Ian Adams, professor assistente de criminologia na Universidade da Carolina do Sul que faz parte de um grupo de trabalho sobre inteligência artificial através do Conselho de Justiça Criminal, um think tank apartidário.
O Departamento de Segurança Interna não respondeu aos pedidos de comentários e não ficou claro se a agência tinha diretrizes ou políticas sobre o uso de IA pelos agentes. As imagens da câmera corporal citadas no despacho ainda não foram divulgadas.
Adams disse que poucos departamentos implementaram políticas, mas aqueles que muitas vezes proíbem o uso de IA preditiva ao escrever relatórios que justificam decisões policiais, especialmente relatórios de uso da força. Os tribunais estabeleceram um padrão denominado razoabilidade objetiva ao considerar se o uso da força era justificado, baseado em grande parte na perspectiva do oficial específico naquele cenário específico.
“Precisamos dos eventos específicos articulados desse evento e dos pensamentos específicos daquele oficial específico para nos informar se foi um uso justificado da força”, disse Adams. “Esse é o pior cenário, além de dizer explicitamente a ele para inventar fatos, porque você está implorando para que ele invente fatos nesta situação de alto risco.”
Informações e evidências privadas.
Além de levantar preocupações sobre um relatório gerado por IA que caracteriza de forma imprecisa o que aconteceu, o uso da IA também levanta potenciais preocupações com a privacidade.
Katie Kinsey, chefe de gabinete e consultora de política tecnológica do Projeto de Policiamento da Faculdade de Direito da Universidade de Nova York, disse que se o agente no mandado estava usando uma versão pública do ChatGPT, ele provavelmente não entendeu que perdeu o controle das imagens no momento em que as carregou, permitindo que elas fizessem parte do domínio público e fossem potencialmente usadas por malfeitores.
Kinsey disse que, do ponto de vista tecnológico, a maioria dos departamentos está construindo o avião enquanto ele voa quando se trata de IA. Ele disse que muitas vezes é um padrão na aplicação da lei esperar até que novas tecnologias já estejam sendo usadas e, em alguns casos, erros estejam sendo cometidos e então falar sobre a implementação de diretrizes ou políticas.
“Você prefere fazer as coisas ao contrário, entendendo os riscos e desenvolvendo barreiras de proteção para evitá-los”, disse Kinsey. “Mesmo que eles não estejam analisando as melhores práticas, há alguns frutos mais fáceis de alcançar que podem ajudar. Podemos começar com transparência.”
Kinsey disse que, à medida que as autoridades federais consideram como a tecnologia deve ou não ser usada, elas poderiam adotar uma política como as recentemente implementadas em Utah ou na Califórnia, onde os relatórios policiais ou as comunicações escritas com inteligência artificial devem ser rotuladas.
Uso cuidadoso de novas ferramentas.
As fotografias que o policial usou para gerar uma narrativa também levantaram questões sobre sua veracidade por parte de alguns especialistas.
Empresas de tecnologia conhecidas, como a Axon, começaram a oferecer componentes de inteligência artificial com suas câmeras corporais para ajudar a escrever relatórios de incidentes. Os programas de IA comercializados para a polícia operam num sistema fechado e estão em grande parte limitados à utilização de áudio de câmaras corporais para produzir narrativas, porque as empresas afirmaram que os programas que tentam utilizar imagens não são suficientemente eficazes para utilização.
“Existem muitas maneiras diferentes de descrever uma cor, uma expressão facial ou qualquer componente visual. Você poderia perguntar a qualquer especialista em IA e ele lhe diria que as dicas fornecem resultados muito diferentes entre diferentes aplicações de IA, e isso é complicado por um componente visual”, disse Andrew Guthrie Ferguson, professor de direito na Faculdade de Direito da Universidade George Washington.
“Há também questões de profissionalismo. Concordamos com o uso de análises preditivas pelos policiais?” ele acrescentou. “É sobre o que o modelo acha que deveria ter acontecido, mas pode não ser o que realmente aconteceu. Você não quer que isso acabe no tribunal, para justificar suas ações.”