Se você está tentando enganar um sistema de visão de AI no futuro, então adesivos como estes podem ajudar.
Durante muito tempo, cientistas da computação têm desenvolvido tipos especiais de imagens que exibem os olhos de AI . Essas imagens e padrões são conhecidos como “imagens adversárias”, e eles exploram fraquezas na forma como os computadores olham para o mundo para fazê-los ver coisas que não existem. Pense neles como ilusões de óptica, mas para a IA. Eles podem ser transformados em óculos que enganam os sistemas de reconhecimento facial, eles podem ser impressos em objetos físicos , e agora, pesquisadores do Google os transformaram em adesivos.
Um artigo descrevendo a produção desses adesivos foi publicado no mês passado , e apesar de o trabalho não ser um avanço, é um passo à frente. Além do fato de que essas imagens adversárias podem ser impressas em casa (você pode até mesmo fazer isso se quiser), elas também são extremamente flexíveis. Ao contrário de outros ataques adversários, eles não precisam ser ajustados com base na imagem que estão tentando anular, nem importa onde eles aparecem no campo de visão do AI. Aqui está o que parece em ação, com um adesivo que transforma uma banana em uma torradeira:
À medida que os pesquisadores escrevem, o adesivo “permite que os atacantes criem um ataque do mundo físico sem conhecimento prévio das condições de iluminação, ângulo da câmera, tipo de classificador sendo atacado ou mesmo os outros itens dentro da cena”. Então, após essa imagem é gerado, pode ser “distribuído pela Internet para que outros atacantes imprimam e usem”.
É por isso que muitos pesquisadores de AI estão preocupados com a forma como esses métodos podem ser usados para atacar sistemas como veículos auto-dirigidos. Imagine um pequeno remendo que você pode manter no lado da auto-estrada que faz seu sedan pensar que vê um sinal de parada ou um adesivo que impede que você seja identificado pelos sistemas de vigilância da AI. “Mesmo que os humanos possam perceber esses remendos, eles podem não entender a intenção [e], em vez disso, vê-lo como uma forma de arte”, escrevem os pesquisadores.
Ainda não há necessidade de se preocupar com esses ataques. Embora as imagens adversárias possam ser desconcertantemente eficazes, não são um pouco de super magia que funciona em todos os sistemas AI sempre. Parches como o que os pesquisadores do Google criaram levam tempo e esforço para gerar, e geralmente acessam o código dos sistemas de visão que eles estão visando. O problema, como mostra esta pesquisa, é que esses ataques estão ficando cada vez mais flexíveis e eficazes ao longo do tempo. As etiquetas podem ser apenas o começo.