A Apple poderá escanear fotos armazenadas no iPhone e iCloud para detectar fotos de pornografia infantil e combater a pedofilia. Segundo o Financial Times, essa ferramenta, batizada de neuralMatch, será implantada inicialmente nos Estados Unidos.
Conforme o Financial Times, a Apple planeja realizar uma varredura profunda nos arquivos dos usuários. Segundo a imprensa americana, o neuralMatch será capaz de “alertar proativamente uma equipe de analistas humanos se ela achar que detectou imagens ilegais”.
Caso o sistema encontre fotos suspeitas, equipes da polícia serão avisadas.
Ainda segundo o Financial Times, o neuralMatch deve ser responsável por atribuir algo como uma “pontuação de segurança” em cada foto. Se várias imagens forem categorizadas pela ferramenta como suspeitas, o sistema enviará um atleta.