Po velké vlně kritiky, která se strhla poté, co Apple oznámil, že má v plánu kontrolovat charakter fotografií v mobilech svých uživatelů a také na cloudu, aby zamezil sexuálnímu zneužívání dětí, se americká firma rozhodla k tomuto opatření zatím nepřistoupit. Myšlenky na částečnou kontrolu obsahu se ale nevzdává.
Apple vyslyšel negativní zpětnou vazbu od zákazníků, odborníků, nejrůznějších zájmových skupin, i některých vlastních zaměstnanců a technologii skenující obsah mobilu letos, jak měl původně v plánu, nezačne používat, uvedla BBC. Hlavní kritika směřovala k narušování ochrany soukromí uživatelů, existují ale i obavy, že by tento nástroj mohl být zneužit autoritářskými režimy.
Technologie se bude ještě dolaďovat
Apple ve svém prohlášení uvedl: „Minulý měsíc jsme oznámili plány na funkce určené k ochraně dětí před predátory, kteří je používají k náboru a vykořisťování pomocí komunikačních nástrojů, a omezují šíření materiálů týkajících se sexuálního zneužívání dětí. Na základě zpětné vazby jsme se rozhodli v příštích měsících věnovat více času shromažďování vstupů a vylepšení, než uvolníme tyto kriticky důležité funkce pro bezpečnost dětí.“
V dřívější kampani bylo soukromí uživatelů pro Apple nejvyšší prioritou:
Technologie nazvaná Neural Hash měla fungovat tak, že by obrázky z telefonu naskenovala před jejich nahráním na iCloud Photos. Zde by je umělá inteligence porovnávala s materiály typickými pro sexuální zneužívání dětí pod dohledem amerického Národního centra pro pohřešované a zneužívané děti. Pokud by AI nalezla shodu, fotografii by následně zkontroloval lidský pracovník. V případě potřeby by pak došlo k deaktivaci účtu uživatele a nahlášení policii.
Zdroj: BBC