• Sep 25, 21
  • crca-author

Faleminderit, Apple, që tregove mundësinë për të mbrojtur fëmijët!

Publikimi dhe shkëmbimi i imazheve dhe videove të abuzimit seksual të fëmijëve në internet zgjeron dhe komplikon dëmin e rëndë që është bërë për viktimat e këtyre krimeve.

Dëshmia e të mbijetuarve të abuzimit seksual që në fëmijëri, tashmë të rritur, nuk duhet të lërë askënd në asnjë dyshim për madhësinë dhe natyrën afatgjatë të dëmit të shkaktuar nga publikimi i vazhdueshëm i imazheve dhe videove të abuzimit të tyre.

Zbulimi i materialit të abuzimit seksual të fëmijëve detyron jo vetëm që ai material të hiqet nga platforma në të cilën po shpërndahet, por gjithashtu bën të mundur identifikimin dhe mbrojtjen e fëmijëve nga abuzimi i vazhdueshëm ose i afërt dhe arrestimi i autorëve. Për të gjitha këto arsye, është me rëndësi të madhe që çdo kompani teknologjike, në të gjitha pjesët e zinxhirit të vlerës dhe pavarësisht nga madhësia, të bëjë gjithçka në fuqinë e saj për të zbuluar, hequr dhe raportuar materialin e abuzimit seksual të fëmijëve sa më shpejt që të jetë e mundur nga sistemet e tyre.

Për të njëjtat arsye ne, si një koalicion i organizatave të mbrojtjes së fëmijëve dhe avokatëve të të drejtave të fëmijëve nga shumë vende të ndryshme të globit, po shkruajmë për të mbështetur, në termat më të fortë të mundshëm, njoftimin e fundit të politikave të bërë nga Apple. Në gusht 2021, Apple njoftoi se në azhurnimin tjetër të sistemit të tyre operativ, ata do të përfshinin teknologji që respekton privatësinë, e cila do t’i mundësonte kompanisë të zbulojë imazhe të njohura të abuzimit seksual të fëmijëve në pajisje para se të ngarkohen në iCloud. Ne përshëndesim vendimin e Apple për të mos e injoruar këtë çështje, madje përkundrazi për ta përballuar atë.

Kontributi i Apple është jashtëzakonisht i rëndësishëm dhe shumë i mirëpritur

Për shumë vite, kompani të tjera të mëdha dhe të vogla kanë ndërmarrë hapa për të identifikuar dhe fshirë materialin e abuzimit seksual të fëmijëve dhe për ta raportuar atë tek autoritetet përkatëse. Në vitin 2020, për shembull, gati 300 kompani paraqitën 21,751,085 raporte të tilla në NCMEC CyberTipline.

Apple përbënte vetëm 265 prej tyre, kështu që kompania është një aktor i vonuar, por më i mirëpritur. Në mënyrë thelbësore, Apple është gjithashtu kompania e parë e madhe globale e teknologjisë që propozoi përpunimin dhe zbulimin e CSAM në nivelin e pajisjes. Është po aq e rëndësishme të theksohet se ndërsa teknologjia e propozuar e zbulimit CSAM e përdorur nuk është e re, Apple po propozon të shtojë shtresa kriptimi dhe teknologji të tjera komplekse për të mbrojtur privatësinë dhe sigurinë e përdoruesve të iCloud.

Theksi mbi privatësinë dhe sigurinë është shumë i rëndësishëm si një tipar i qëndrueshëm i markës Apple.

Kjo çështje mund të jetë më pak për teknologjinë ose privatësinë, sesa për besimin

Ne vërejmë vendimin e Apple për të ndërprerë politikën e saj të shpallur mbi materialin e abuzimit seksual të fëmijëve. Kompania thotë se po e bën këtë pas "reagimeve nga klientët, grupet e avokimit, studiuesit dhe të tjerët".

Apple vazhdon: "Ne kemi vendosur të marrim kohë shtesë gjatë muajve të ardhshëm për të mbledhur të dhëna dhe për të bërë përmirësime para se të lëshojmë këto karakteristika kritike të sigurisë së fëmijëve."

Edhe pse të zhgënjyer nga vonesa, ne jemi shumë të inkurajuar që kompania nuk dha asnjë indikacion me synimin për të ndryshuar vendimin e saj ose për të braktisur politikën. Përkundrazi, Apple 2 duket se po synon përmirësime, ndoshta do të marrë më shumë kohë për të shpjeguar metodat e tij dhe për të siguruar kritikët se ata nuk duhet të kenë frikë nga privatësia.

Qëllimi i deklaruar i Apple është vetëm të krijojë një kapacitet për të identifikuar materialin e verifikuar të abuzimit seksual të fëmijëve. Asgjë më shumë, asgjë më pak. Marrëveshja e licencës së kompanisë ndalon shprehimisht çdo përdorues të përdorë sistemet e tij për të "planifikuar ose përfshirë në ndonjë aktivitet të paligjshëm", dhe kompania rezervon të drejtën të kryejë inspektime në mënyrë që të zbatojë marrëveshjen e licencës.

Të drejtat e fëmijëve për jetën, sigurinë dhe mirëqenien nuk mund të jenë viktima të politikave që krijojnë privatësinë e të gjithë përdoruesve, përfshirë njerëzit që prodhojnë, ndajnë dhe konsumojnë materiale abuzimi seksual të fëmijëve, mbi të drejtat e një fëmije në nevojë për mbrojtje ose një fëmije, të cilit të drejtat e privatësisë janë shkelur.

Presioni i shtetit ndaj kompanive teknologjike për të modifikuar ose ripërdorur produktet e tyre për qëllime politike është një çështje krejtësisht e veçantë. Kërkon një përgjigje specifike dhe nuk mund të jetë një argument kundër mbrojtjes së fëmijëve aty ku ekziston teknologjia për ta bërë këtë. Përkundrazi, zgjidhja qëndron në rritjen e transparencës dhe llogaridhënies në nivel global.

Ne të gjithë presim me padurim një kohë kur produktet e Apple do të bëhen sinonime jo vetëm me standardet më të larta të privatësisë si aktualisht, por edhe me standardet më të larta të mbrojtjes së fëmijëve. Siç qëndrojnë gjërat sot, qëndrimi i Apple është një hap jashtëzakonisht i rëndësishëm përpara, si për Apple ashtu edhe për sektorin në tërësi. Pasi u tha vazhdimisht se "asgjë më shumë nuk mund të bëhet", Apple ka treguar saktësisht se çfarë mund të bëhet më shumë. Nëse ka vullnet për ta bërë këtë

Thirrja jonë kolektive për veprim:

• Ne i bëjmë thirrje Apple të qëndrojë në rrugën e duhur dhe të vendosë një afat të qartë kohor për zbatimin e këtyre hapave jetikë për të parandaluar shfrytëzimin e përsëritur seksual të fëmijëve.

• Ne e inkurajojmë fuqishëm Apple që të shkojë më tej dhe mezi presim të dialogojmë me kompaninë se si ta bëjmë këtë.

Bashkohuni me ne për të vepruar tani!

Bashkohuni me ne në inkurajimin dhe punën me Apple për të siguruar që politika e saj e shpallur të qëndrojë në rrugën e duhur dhe t'u sigurojë fëmijëve mbrojtjen që ata kanë nevojë dhe meritojnë.

Dërgoni email amyc@ecpat.org për të shtuar emrin dhe organizatën tuaj në listë. Së bashku ne mund të bëjmë ndryshimin.

 

Children’s Groups Express Strong Support for Apple’s New Policy

Thank you, Apple, for showing what more is possible to protect children

The publication and exchange of child sexual abuse images and videos over the internet expands and compounds the grave harm already done to the victims of these crimes.

The testimony of the now adult survivors of child sexual abuse should leave nobody in any doubt about the enormity and long-lasting nature of the damage done by the continued publication of images and videos of them being abused.

The detection of child sexual abuse material leads not only to that material being taken down from the platform it is being shared on, but also makes it possible to identify and safeguard children from ongoing or imminent abuse and to arrest offenders. For all these reasons, it is of paramount importance that every technology company, in all parts of the value chain and regardless of size, does everything in their power to detect, remove and report child sexual abuse material as quickly as possible from their systems.

 For those same reasons we, as a coalition of child protection organisations and child rights advocates from many different parts of the globe, are writing to support, in the strongest possible terms, the recent policy announcement made by Apple. In August 2021, Apple announced that in the next update of their operating system, they would include privacy-respecting technology that would enable the company to detect known child sexual abuse images on devices prior to being uploaded to iCloud. We applaud Apple’s decision not to ignore this issue, but rather to confront it.

Apple’s contribution is hugely significant and very welcome

For many years, other companies large and small have been taking steps to identify and delete child sexual abuse material and report it to the relevant authorities. In 2020, for example, nearly 300 companies submitted 21,751,085 such reports to the NCMEC CyberTipline.

Apple accounted for only 265 of these, so the company is a late but most welcome actor. Crucially, Apple is also the first major global technology company to propose the processing and detection of CSAM at device level. It is equally important to note that while the proposed CSAM detection technology used is not new, Apple is proposing to add layers of encryption and other complex technologies to protect the privacy and security of iCloud users.

This emphasis on privacy and security is highly noteworthy as a consistent feature of the Apple brand.

The issue may be less about technology or privacy than about trust

We note Apple’s decision to pause implementation of its announced policy towards child sexual abuse material. The company says it is doing so following “feedback from customers, advocacy groups, researchers and others”.

Apple goes on to say: “we have decided to take additional time over the coming months to collect input and make improvements before releasing these critically important child safety features."

While we are disappointed at the delay, we are greatly encouraged that the company gave no indication of an intention to reverse its decision or abandon the policy. On the contrary, Apple 2 appears intent on making improvements, perhaps also taking more time to explain its methods and reassure critics they have nothing to fear in relation to privacy.

Apple’s declared intention is solely to create a capacity to identify verified child sexual abuse material. Nothing more, nothing less. The company’s licence agreement expressly forbids any user from using their systems to “plan or engage in any illegal activity”, and the company, reserves the right to undertake inspections with a view to enforcing the license agreement.

The rights of children to life, safety and wellbeing cannot be the casualties of policies that place the privacy of all users, including people who produce, share and consume child sexual abuse material, above the rights of a child in need of protection or a child whose privacy rights have been violated. State pressure on technology companies to modify or repurpose their products for political aims is a wholly distinct issue. It requires a specific response and cannot be an argument against protecting children where the technology exists to do so. Rather, the solution lies in increased transparency and accountability globally.

We all look forward to a time when Apple’s products will become a synonym not only for the highest standards of privacy as at present, but also for the highest standards of child protection. As things stand today, Apple’s stance is a hugely important step forward, both for Apple and for the sector as whole. Having been told repeatedly that “nothing more can be done”, Apple has shown precisely what more can be done. If there is a will to do it.

Our collective call to action

• We call on Apple to remain on course and to establish a clear timeline for implementing these vital steps to prevent the repeated sexual exploitation of children.

• We strongly encourage Apple to go further, and we welcome dialogue with the company on how to do this.