A Apple poderá escanear fotos armazenadas no iPhone e iCloud para detectar fotos de pornografia infantil e combater a pedofilia. Segundo o Financial Times, essa ferramenta, batizada de neuralMatch, será implantada inicialmente nos Estados Unidos.
Conforme o Financial Times, a Apple planeja realizar uma varredura profunda nos arquivos dos usuários. Segundo a imprensa americana, o neuralMatch será capaz de “alertar proativamente uma equipe de analistas humanos se ela achar que detectou imagens ilegais”.
Caso o sistema encontre fotos suspeitas, equipes da polícia serão avisadas.
Ainda segundo o Financial Times, o neuralMatch deve ser responsável por atribuir algo como uma “pontuação de segurança” em cada foto. Se várias imagens forem categorizadas pela ferramenta como suspeitas, o sistema enviará um atleta.
Acompanhe os fatos que marcaram o dia de hoje na história
Fato ocorreu próximo à Secretaria Municipal de Infraestrutura
O culto ocorrerá na próxima quarta-feira (14), na Igreja da Comunidade XV de Novembro
A oportunidade é para atendente de cafeteria
Ministro é o relator de ação contra a parlamentar por invasão aos sistemas do CNJ
This website uses cookies.