IThon.hu | Techben otthon vagyunk!

Még több aggodalomra adnak okot az Apple biztonságtechnikai törekvései

The New York Times szerint több mint egy tucat neves kiberbiztonsági szakértő csütörtökön támadta az Apple-t, amiért veszélyes technológiára támaszkodik az iPhone-okon található, gyermekek szexuális zaklatásáról készült képek felderítésére irányuló vitatott tervében.

Az elmarasztaló kritikát egy új, 46 oldalas tanulmányban fogalmazták meg a kutatók, amely az Apple és az Európai Unió azon terveit vizsgálta, hogy az emberek telefonjait illegális anyagok után tartsák megfigyelés alatt, és az erőfeszítéseket hatástalan és veszélyes stratégiáknak nevezték, amelyek felbátorítanák a kormányzati megfigyelést.

Forrás: AppleInsider

Az augusztusban bejelentett tervezett funkciók közé tartozik a felhasználók iCloud Fotók könyvtárainak kliensoldali (azaz a készüléken belüli) átvizsgálása a gyermekek szexuális zaklatására szolgáló anyagok (CSAM) után, a Kommunikációs biztonság, amely figyelmezteti a gyermekeket és szüleiket, ha szexuálisan egyértelmű fotókat kapnak vagy küldenek, valamint a Siri és a Keresés kibővített CSAM-irányítása.

A kutatók szerint az Európai Unió által közzétett dokumentumok arra utalnak, hogy a blokk irányító testülete hasonló programra törekszik, amely a titkosított telefonokat a gyermekek szexuális zaklatására, valamint a szervezett bűnözésre és a terrorizmushoz kapcsolódó képekre utaló jelekre is vizsgálná.

„Nemzetbiztonsági prioritás kellene, hogy legyen, hogy ellenálljunk a törvénytisztelő polgárok elleni kémkedési és befolyásolási kísérleteknek” – mondták a kutatók, akik hozzátették, hogy most azért teszik közzé eredményeiket, hogy tájékoztassák az Európai Uniót a tervük veszélyeiről.”

Az állam megfigyelési jogköreinek kiterjesztése valóban átlép egy vörös vonalat. A megfigyelési aggályok mellett a kutatók szerint eredményeik azt mutatták, hogy a technológia nem hatékony a gyermekek szexuális zaklatásáról készült képek azonosításában. Elmondásuk szerint az Apple bejelentése után néhány nappal az emberek már rámutattak arra, hogyan lehet a képek kismértékű szerkesztésével elkerülni a felismerést. Ez lehetővé teszi egy személyes magáneszköz átvizsgálását anélkül, hogy bármilyen valószínűsíthető okból bármi törvénytelen dolog történne. Ez rendkívül veszélyes. Veszélyes az üzleti életre, a nemzetbiztonságra, a közbiztonságra és a magánéletre nézve.
Ross Anderson, a Cambridge-i Egyetem biztonságtechnikai professzora

A kiberbiztonsági kutatók elmondták, hogy tanulmányukat már az Apple bejelentése előtt elkezdték, és eredményeiket most teszik közzé, hogy tájékoztassák az Európai Uniót a terv veszélyeiről.

Az Apple-t jelentős kritikával illették az adatvédők, biztonsági kutatók, kriptográfiai szakértők, akadémikusok, politikusok, sőt, a vállalaton belüli alkalmazottak is, amiért úgy döntött, hogy a technológiát az iOS 15 és az iPadOS 15 egy jövőbeli frissítésében alkalmazza.

Az Apple kezdetben igyekezett eloszlatni a félreértéseket és megnyugtatni a felhasználókat, részletes információk közzétételével. Amikor azonban világossá vált, hogy ez nem a kívánt hatást váltotta ki, az Apple később elismerte a negatív visszajelzéseket, és szeptemberben bejelentette a funkciók bevezetésének késleltetését, hogy a vállalatnak legyen ideje fejlesztéseket végezni a CSAM-rendszeren, bár nem világos, hogy ezek mit tartalmaznának, és hogyan kezelnék az aggodalmakat.

Az Apple azt is közölte, hogy visszautasítaná az autoriter kormányok azon követeléseit, hogy a képfelismerő rendszert a gyermekek szexuális zaklatását tartalmazó anyagok elismert adatbázisai által megjelölt gyermekek képein túlra is kiterjesszék, bár azt nem mondta, hogy inkább kivonulna egy piacról, minthogy engedelmeskedjen egy bírósági végzésnek.

Kapcsolódó cikkeink

Csak Siri!

Anikó

Idén már ne is számítsunk az új MacBook Prókra?

Anikó

Még jobban elmosódhat a határ az iPadek és MacBookok közt

Anikó