Kontrowersyjny pomysł Apple.
Apple zapowiedział walkę z dziecięcą pornografią. Idea godna chwały, ale sposób w jakim firma chce to robić budzi już wątpliwości. Apple w kolejnej aktualizacji iOS 15 wprowadzi technologię, która będzie skanowała zdjęcia znajdujące się na urządzeniach z logiem jabłka. Odbywać się to będzie bez zgody użytkowników. Sprawdzenie takiej ilości fotografii jest możliwe tylko przez sztuczną inteligencję czy głupotę jak niektórzy mówią. Czy program poradzi sobie z zadaniem czy może będą takie same błędy jak usuwanie kanałów szachowych na YouTube za stwierdzenie, że "biały pionek zbił czarnego pionka"? Według "nadgryzionego jabłka" szansa na pomyłkę wynosi 1 do tryliona (10 i 18 zer).
Domniemanie pedofilii?
Niestety nikt - oprócz Apple - nie wie w jaki sposób będzie działało te skanowanie zdjęć. Część osób zwraca uwagę, że pod pretekstem walki z pedolifami korporacja uzyska dostęp do danych zgromadzonych na urządzeniach swoich użytkowników. Jest to podobny przypadek jak UE, która twierdzi, że monitorowanie komunikatorów pomoże złapać terrorystów. Czy cel uświęca środki?
Apple nazywa wszystkich krytyków pomysłu "skrzeczącymi głosami mniejszości". Jak nie zgodzisz się na przeglądanie swoich zdjęć to chyba masz coś na sumieniu. Jak chcesz mieć prywatne rozmowy to na pewno rozmawiasz o jakimś zamachu z innym terrorystą. Kiedyś obowiązywała zdrowa zasada domniemania niewinności. W "nowej normalności" zostanie to odwrócone. Pomysł będzie póki co testowany tylko - cóż za ironia - w Land of Freedom. Czy "nadgryzione jabłko" chce uszcześliwić swoich klientów? Legendy głoszą, że "nie mając żadnej prywatności można być szczęśliwym", ale według mnie to ... robaczywy pomysł.
Korzystałem z:
https://www.apple.com/child-safety/
https://spidersweb.pl/2021/08/apple-pornografia-dziecieca.html