Sede 1: Jundiaí/SP | Sede 2: Guarulhos/SP
(11) 99710-0350 /
contato@merakigroup.com.br

Prevenção de crimes usando inteligência artificial será lançada na Índia

Prevenção de crimes usando inteligência artificial será lançada na Índia

Os programas de inteligência artificial (AI, em inglês) prometem fazer tudo, desde a previsão do tempo até a pilotagem de carros autônomos. Agora, a IA está sendo aplicada a sistemas de vigilância por vídeo, prometendo impedir atividades criminosas, não detectando crimes em andamento, mas identificando um crime – antes que isso aconteça.

O objetivo é evitar a violência, como as agressões sexuais, mas tais intenções admiráveis ​​podem se transformar em pesadelos pré-crime ao estilo Minority Report?

Tal possibilidade pode parecer um enredo de um episódio de Black Mirror, mas não é mais o material da ficção científica. A Cortica, uma empresa israelense com raízes profundas em segurança e pesquisa de inteligência artificial, firmou recentemente uma parceria na Índia com o Best Group para analisar os terabytes de transmissão de dados de câmeras instaladas em áreas públicas. Um dos objetivos é melhorar a segurança em locais públicos, como ruas da cidade, pontos de ônibus e estações de trem.

Já é comum que as autoridades policiais em cidades como Londres e Nova York empreguem reconhecimento facial e correspondência de matrículas como parte da vigilância de câmeras de vídeo. Mas a AI de Cortica promete levá-lo muito mais longe, procurando por “anomalias comportamentais” que indicam que alguém está prestes a cometer um crime violento.

O software é baseado no tipo de sistemas de triagem de segurança militar e governamental que tentam identificar terroristas monitorando pessoas em tempo real, procurando as chamadas microexpressões – contorções minúsculas ou maneirismos que podem desmentir as intenções nefastas de uma pessoa. Esses sinais reveladores são tão pequenos que podem iludir um detetive experiente, mas não o “olho” treinado da Inteligência Artificial.

Em uma reunião em Tel Aviv antes de o acordo ser anunciado, a co-fundadora e COO Karina Odinaev explicou que o software da Cortica pretende enfrentar desafios na identificação de objetos que não são facilmente classificados de acordo com os estereótipos tradicionais. Um exemplo que Odinaev descreveu envolveu casos de esquina (como uma cama caindo de um caminhão na estrada) que são encontrados em situações de direção, precisamente o tipo de eventos únicos que os programas que controlam carros autônomos terão que ser capazes de manipular no futuro.

“Para isso, você precisa de aprendizado não supervisionado”, disse Odinaev. Em outras palavras, o software precisa aprender da mesma maneira que os humanos aprendem.

Indo diretamente para o cérebro

O software AI da Cortica monitora as pessoas em tempo real, procurando por microexpressões – contorções minúsculas ou maneirismos que podem desmentir as intenções nefastas de uma pessoa.

Para criar um programa desse tipo, a Cortica não seguiu a rota da rede neural (que, apesar de seu nome, é baseada em probabilidades e modelos de computação, e não em como os cérebros reais funcionam). Em vez disso, Cortica foi até a fonte, neste caso, um segmento cortical do cérebro de um rato.

Ao manter um pedaço de cérebro vivo ex-vivo (fora do corpo) e conectá-lo a um arranjo de microeletrodos, Cortica foi capaz de estudar como o córtex reagiu a estímulos particulares. Ao monitorar os sinais elétricos, os pesquisadores foram capazes de identificar grupos específicos de neurônios chamados cliques que processavam conceitos específicos. A partir daí, a empresa construiu arquivos de assinatura e modelos matemáticos para simular os processos originais no cérebro.

O resultado, de acordo com a Cortica, é uma abordagem à inteligência artificial que permite aprendizado avançado, enquanto permanece transparente. Em outras palavras, se o sistema cometer um erro – digamos, ele falsamente antecipa que um tumulto está prestes a estourar ou que um carro à frente está prestes a sair de uma garagem – os programadores podem facilmente rastrear o problema de volta ao processo ou assinatura arquivo responsável pelo julgamento errôneo. (Compare isso com as chamadas redes neurais de aprendizagem profunda, que são essencialmente caixas-pretas e podem ter que ser completamente treinadas novamente se cometerem erros.)

Inicialmente, a AI Autônoma da Cortica será usada pelo Best Group na Índia para analisar a enorme quantidade de dados gerados por câmeras em locais públicos para melhorar a segurança e a eficiência. A Best Group é uma empresa diversificada envolvida no desenvolvimento de infra-estrutura e um importante fornecedor para clientes governamentais e de construção. Então, ele quer aprender como saber quando as coisas estão indo bem – e quando não estão.

Mas espera-se que o software da Cortica faça consideravelmente mais no futuro. Poderia ser usado em futuros robotaxis para monitorar o comportamento dos passageiros e prevenir agressões sexuais, por exemplo. O software da Cortica também pode combinar dados não apenas de câmeras de vídeo, mas também de drones e satélites. E pode aprender a julgar as diferenças comportamentais, não apenas entre cidadãos cumpridores da lei e ex-criminosos, mas também entre um mercado pacífico e uma manifestação política que está prestes a se tornar violenta.

Essa informação preditiva permitiria que uma cidade implementasse a aplicação da lei em uma situação potencialmente perigosa antes que vidas sejam perdidas. No entanto, nas mãos erradas, também poderia tomar proporções catastróficas. Um regime despótico, por exemplo, poderia usar tal informação para suprimir a dissensão e prender pessoas antes mesmo de terem a chance de organizar um protesto.

Em Nova York, durante uma demonstração de como a AI autônoma da Cortica está sendo aplicada a carros autônomos, o vice-presidente da Cortica, Patrick Flynn, explicou que a empresa está focada em tornar o software eficiente e confiável para fornecer os dados de classificação mais precisos possíveis. O que os clientes fazem com essa informação – pare um carro ou acelere para evitar um acidente, por exemplo – é com eles. O mesmo se aplica a como uma cidade ou governo pode alocar recursos policiais.

“As decisões políticas são estritamente fora da área de Cortica”, disse Flynn.

Será que vamos desistir de privacidade para melhorar a segurança?

No entanto, o casamento da AI com redes onipresentes de webcams está começando a gerar mais ansiedade quanto à privacidade e à liberdade pessoal. E não são apenas governos despóticos estrangeiros que as pessoas estão preocupadas.

Em Nova Orleans, o prefeito Mitch Landrieu propôs um plano de vigilância de combate ao crime no valor de US$ 40 milhões, que inclui o compartilhamento de câmeras municipais com os feeds ao vivo de webcams privadas operadas por empresas e indivíduos. A proposta já provocou protestos públicos de trabalhadores imigrantes preocupados que as autoridades federais de imigração usem as câmeras para caçar trabalhadores indocumentados e deportá-los.

Enquanto isso, como os sujeitos presos em um mundo Black Mirror, os consumidores podem já estar inadvertidamente se submetendo a tal vigilância com tecnologia de inteligência artificial. A câmera de 249 Clips do Google, por exemplo, usa uma forma rudimentar de AI para tirar fotos automaticamente quando vê algo que considera significativo. A Amazon, cuja Alexa já é objeto de escutas clandestinas, comprou a popular empresa de campainhas de vídeo Ring. A GE Appliances também está planejando lançar um hub equipado com câmeras de vídeo para cozinhas ainda este ano. Na Europa, a Electrolux vai estrear um forno a vapor este ano com uma webcam embutida.

Embora essas tecnologias elevem o espectro do Big Brother em todos os nossos movimentos, ainda há a louvável esperança de que o uso de inteligência artificial sofisticada, como o programa da Cortica, possa melhorar a segurança, a eficiência e salvar vidas.

Não se pode deixar de imaginar, por exemplo, o que teria acontecido se essa tecnologia estivesse disponível e fosse usada no Uber que Nikolas Cruz, de 19 anos, matou 17 pessoas na Marjory Stoneman Douglas High School, nos Estados Unidos. O motorista do Uber não notou nada de errado com Cruz, mas poderia uma câmera equipada com AI detectar microexpressões revelando suas intenções e alertar a polícia?

No futuro, poderemos descobrir.

Traduzido e adaptado de Digital Trends.

Quer decolar ainda mais alto em seus empreendimentos?

Curta nossa página no Facebook

Veja nossas fotos no Instagram

 

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *