|||

ورود به حساب کاربری

شماره همراه خود را وارد کنید

ورود با کلمه عبور ارسال کد تایید

فراموشی کلمه عبور

در صورت فراموشی کلمه عبور شماره موبایل خود را وارد کنید.

ورود با کلمه عبور تنظیم مجدد

ورود به حساب کاربری

در صورتی که کلمه عبور خود را بروزرسانی کرده اید با کلمه عبور وارد حساب کاربری خود شوید.

شماره همراه خود را وارد کنید

ورود و ادامه

اپل آیفون ها را برای تصاویر سوء استفاده جنسی از کودکان اسکن می کند

امیررضا فروزان

این سیستم می تواند به مجریان قانون برای دستگیری شکارچیان جنسی کودک کمک کند ، اما کارشناسان امنیت و حریم خصوصی نگران هستند .

این سیستم به اسکن تصاویر موجود کودک آزاری نزدیک است که قبلاً در رسانه های اجتماعی و سیستم عامل های ذخیره سازی  (فضای ) ابر انجام شده است . با این وجود ، اسکن اپل روی خود آیفون انجام می شود . یک فرآیند روی دستگاه بررسی می کند که آیا یک تصویر بارگذاری شده در یک حساب iCloud Photos با تصاویری که قبلاً در پایگاه داده نشان داده شده اند فهرست بندی می شود که نمایانگر مواد شناخته شده سوء استفاده جنسی از کودکان است .

 

فرآیند بررسی غکس های نامناسب برای کودکان

 

اپل تنها در صورتی می تواند تصاویر بارگذاری شده را رمزگشایی و مشاهده کند که " آستانه ای " در مورد میزان مشکوک به سوء استفاده جنسی از کودکان در حساب iCloud رد شود .

این شرکت می گوید : " این آستانه ، میزان بسیار بالایی از دقت را ارائه می دهد و کمتر از یک در یک تریلیون شانس در سال برای نشان دادن اشتباه یک حساب مشخص را تضمین می کند . سپس اپل به صورت دستی هر گزارشی را بررسی می کند تا مطابقت داشته باشد ، حساب کاربر را غیرفعال می کند و گزارشی را به NCMEC (مرکز ملی کودکان مفقود و استثمار شده) ارسال می کند . "

اپل قصد دارد ویژگی اسکن را در آی او اس 15 ( iOS 15 ) و آی پاد او اس 15 ( iPadOS 15 ) که پاییز امسال عرضه می شوند ، به اجرا بگذارد .

این شرکت افزود : " اپل فقط در مورد عکس های کاربران متوجه می شود اگر آنها مجموعه ای از CSAM (مواد سوء استفاده جنسی از کودکان) در حساب iCloud Photos خود داشته باشند ." حتی در این موارد ، اپل فقط متوجه تصاویری که با CSAM شناخته شده مطابقت دارند ، می شود . "

گفته می شود ، این شرکت در حال پیاده سازی سیستم اسکن دوم در iMessage برای تشخیص تصاویر جنسی است ، اما این دستگاه برای iPhone های متعلق به کودکان طراحی شده است . این سیستم همچنین بر روی الگوریتم های ML ( یادگیری ماشین ) دستگاه ضربه می زند تا تصاویر واضح جنسی ارسال شده به حساب کودک را از طریق برنامه پیام ها تشخیص دهد .

 

تصاویری از بخش های نرم افزار iMessage

 

اپل توضیح داد : " هنگام دریافت این نوع محتوا ، عکس تار می شود و به کودک هشدار داده می شود ، منابع مفیدی در اختیار او قرار می گیرد و اطمینان می دهد که اگر نمی خواهد این عکس را ببیند ، مشکلی نیست . به عنوان یک احتیاط اضافی ، می توان به کودک گفت که برای اطمینان از سلامت ، والدین آنها در صورت مشاهده پیام دریافت می کنند . "

با این حال ، بنیاد مرزهای الکترونیکی طرفدار این سیستم نیست . گروه حریم خصوصی نگران است که همین رویکرد در رمزگذاری سرتاسری در iMessage خللی ایجاد کند .

EFF نوشت : " تمام چیزی که برای گسترش درب پشتی باریکی که اپل در حال ساخت آن است ، گسترش پارامترهای ML ( یادگیری ماشین ) برای جستجوی انواع دیگر محتوا یا تغییر در پرچمهای پیکربندی برای اسکن ، نه فقط حساب کودکان ، بلکه حسابهای هر کسی است . این یک شیب لغزنده نیست ؛ این یک سیستم کاملاً ساخته شده است که فقط منتظر فشار خارجی است تا کوچکترین تغییری ایجاد کند . "

 

داستان اصلی:

 

به گزارش فایننشال تایمز ، اپل ممکن است روی سیستم اسکن آیفون ها کار کند تا تشخیص دهد آیا آنها تصاویر سوء استفاده جنسی از کودکان را حمل می کنند یا خیر .

هدف این است که جلوی جنایت را بگیریم ، اما این می تواند به هزینه حریم خصوصی صاحب آیفون خسارت وارد کند . نگرانی اصلی این است که اپل در حال ایجاد سرپایی برای نظارت بر فعالیت بر روی سخت افزار شخصی مصرف کننده است ، اقدامی فراتر از بررسی داده ها در یک شبکه اجتماعی ، سایت ویدیویی یا سرویس ایمیل .

به گزارش فایننشال تایمز ، اپل دانشمندان آمریکایی را در مورد سیستم آینده ، که " بازی عصبی " نامیده می شود ، در جریان می گذارد . این فناوری با هشدار به یک بازبین انسانی در صورت تشخیص تصویر مستهجن کودک در آیفون ، کار می کند . سپس بازبینی کننده می تواند با مجریان قانون تماس بگیرد .

در روز چهارشنبه ، متیو گرین ، متخصص رمزنگاری نیز گفت که اپل در حال آماده سازی برای انتشار ابزاری برای اسکن تصاویر سوء استفاده جنسی از کودکان با استناد به منابع خود است. او در توییتی نوشت : " این واقعاً ایده بدی است . "

او در توییت بعدی خود اضافه کرد : " این نوع ابزار می تواند برای پیدا کردن پورنوگرافی کودکان در تلفن افراد مفید باشد . اما تصور کنید که این کار در دست یک دولت مستبد چه می تواند انجام دهد ؟ "

اپل فوراً به درخواست اظهار نظر پاسخ نداد . اما به گفته گرین ، برنامه شرکت این است که ابتدا از این سیستم برای اسکن عکس های ذخیره شده در داخل سرویس ذخیره سازی ابری اپل استفاده کند . با این حال ، گرین می ترسد که اپل سرانجام سیستم را برای اسکن تصاویر داخل iMessage ، سیستم چت رمزگذاری شده از انتهای به پایان این شرکت ، گسترش دهد .

این فناوری با اسکن هش ( hash ) ها یا امضای دیجیتالی مرتبط با تصاویر شناخته شده سوء استفاده جنسی از کودکان در اینترنت کار می کند . به طور خاص ، هش ها با عکس های موجود در پایگاه داده ای که حاوی تصاویر پرچم دار سوء استفاده جنسی از کودکان است مقایسه می شوند . با این حال ، گرین می گوید ، اگر اسکن به اندازه کافی هوشمند نباشد ، می تواند به طور تصادفی فایلهای تصاویر بی ضرر را به عنوان مشکل ساز علامت گذاری کند .

در حال حاضر اگر این سیستم واقعی باشد ، به محققان امنیتی در مورد پتانسیل خود برای نظارت گسترده هشدار داده است . الکس مافت ، کارشناس امنیتی که در فیس بوک و سان میکروسیستمز کار می کرد ، در توییتی نوشت : " اپل حریم خصوصی را پس می گیرد تا سال 1984 فعال شود . "

با این حال ، این سیستم به احتمال زیاد یک حامی بزرگ دارد : اجرای قانون . وزارت دادگستری و FBI با استناد به ضرورت به دست آوردن شواهد در تحقیقات جنایی ، از شرکت های فناوری می خواهند که برنامه های رمزگذاری دستگاه های شخصی خود را لغو کنند . در سال 2019 ، ویلیام بار ، دادستان کل سابق ایالات متحده به طور خاص متوقف کردن شکارچیان جنسی کودکان را به عنوان دلیلی برای توقف گسترش پیام های رمزگذاری شده از سوی فیس بوک در نظر گرفت .

 

منبع : pcmag

|||

ورود به حساب کاربری

شماره همراه خود را وارد کنید

ورود با کلمه عبور ارسال کد تایید

فراموشی کلمه عبور

در صورت فراموشی کلمه عبور شماره موبایل خود را وارد کنید.

ورود با کلمه عبور تنظیم مجدد