As ferramentas que funcionam com inteligência artificial são sistemas projetados para executar tarefas que normalmente exigiriam inteligência humana. Por isso, muitas vezes, elas conseguem agir com mais rapidez e precisão do que nós. Mas nem sempre a IA é assertiva. Nos Estados Unidos, um episódio recente mostrou o que pode acontecer quando a tecnologia falha: um estudante do ensino médio foi abordado por policiais armados depois que o sistema de vigilância da escola confundiu um pacote de Doritos, um salgadinho industrializado, com uma arma de fogo. O acontecimento deixou o jovem traumatizado e levantou uma questão: os limites e os riscos do uso de inteligência artificial em escolas.
Estudante comendo salgadinhos é surpreendido por policiais armados
O caso aconteceu na Kenwood High School, em Baltimore, no estado de Maryland, nos Estados Unidos. O estudante Taki Allen, de 16 anos, estava sentado com amigos após o treino de futebol americano, comendo um pacote de Doritos, quando viu vários carros da polícia chegando ao local. Segundo o adolescente, os policiais se aproximaram com armas e ordenaram que ele se deitasse no chão. Sem entender o motivo, Allen foi algemado e revistado. Só depois soube que o sistema de detecção de armas da escola havia identificado o pacote de Doritos como uma pistola.
As imagens que geraram o alerta foram revisadas, e os policiais constataram que não havia nenhuma ameaça. Um dos agentes chegou a comentar que o sistema “não era dos melhores”. O estudante disse à imprensa americana que ficou assustado com o episódio e que agora evita sair do prédio escolar enquanto espera o transporte, com medo de ser novamente confundido.
Estados Unidos é o país com mais casos de atentados armados em escolas
O Estados Unidos é o país com o maior número de ataques armados em instituições de ensino. Segundo dados do World Population Review, o Estados Unidos lidera o ranking de países com mais tiroteios em escolas, com 288 incidentes entre 2009 e 2018. Isso levou muitas cidades a investir em câmeras, detectores e programas de vigilância.
No caso de Baltimore, o sistema utilizado, chamado Omnilert, foi projetado para identificar objetos que se assemelham a armas de fogo e acionar imediatamente as autoridades. O episódio, porém, deixou a população insegura em relação ao risco de confiar cegamente em dispositivos movidos por IA.
Ver 0 Comentários