Apple od dawna używa detekcji CSAM w e-mailach
Nielegalne działania
CSAM (Child Sexual Abuse Materials) budzi w ostatnich czasach wiele wątpliwości. Jest to służący poprawie cyberbezpieczeństwa system skanowania treści. Zdaniem Apple’a ma on służyć m.in. do utrudnienia przestępcom rozprzestrzeniania pornografii dziecięcej. System potrafi identyfikować zabronione materiały, przez co osoby je rozpowszechniające są automatycznie narażone na odpowiedzialność karną.
By uzasadnić decyzję o wprowadzeniu skanowania, Apple przyznał, że ich ekosystemy są największym centrum dystrybucji pornografii dziecięcej, a firma poczuwa się do obowiązku, aby naprawić sytuację. Oświadczenie wzbudziło wątpliwości u dziennikarza portalu 9to5mac. Skąd bowiem koncern miałby wiedzieć o nadużyciach, jeżeli nie poprzez kontrolowanie wiadomości? Firma zapytana o tę kwestię przyznała, że w istocie używa CSAM już od 2019 roku, ale nie do analizy obrazu, a jedynie poczty elektronicznej w usłudze iCloud.
Pod dywanem?
Tłumaczenia brzmią jeszcze dziwniej w obliczu odnalezionej niedawno, zarchiwizowanej witryny Apple’a dotyczącej cyberbezpieczeństwa. Pojawiają się tam m.in. informacje o tym, że firma chce dbać o bezpieczeństwo dzieci. Najwięcej kontrowersji budzi zdanie: „Apple używa technologii dopasowywania obrazu, by pomóc zlokalizować i zgłosić przypadki wykorzystania dzieci”. Nieco dalej czytamy: „nasze systemy używają elektronicznych sygnatur”. Opis ten bardzo mocno przypomina właśnie CSAM.
Dziennikarz który poprosił Apple’a o komentarz, przypomniał też, że o podobnym narzędziu opowiadał firmowy inspektor do spraw prywatności podczas konferencji technologicznej w styczniu 2020 roku. Stwierdził wtedy, że firma ma możliwość wyłączenia kont, jeżeli technologia analizy obrazu na ekranie wykaże ślady nielegalnych grafik. Firma odmówiła jednak skomentowania tej wypowiedzi. Stanowczo zaprzeczyła tylko, że w przeszłości skanowała zdjęcia w usłudze iCloud.
Z dzisiejszej perspektywy fakty te wzbudzają spore wątpliwości. Trudno jednak tak naprawdę rozstrzygnąć czy Apple rzeczywiście już od dawna korzysta z kontrowersyjnego narzędzia do analizy obrazu, czy dopiero przygotowuje odpowiedni grunt pod ten cel. Możemy jedynie się domyślać, jak było naprawdę.
fot. Pixabay