پلاس وی
2 سال پیش / خواندن دقیقه

اپل توسعه سیستم تشخیص سوءاستفاده جنسی از کودکان را متوقف کرد

اپل توسعه سیستم تشخیص سوءاستفاده جنسی از کودکان را متوقف کرد

به‌گزارش وال‌استریت‌ژورنال، اپل به توسعه‌ی فناوری شناسایی سوء استفاده جنسی احتمالی از کودکان (CSAM) که در دستگاه‌های کاربر ذخیره می‌شود، پایان داده است.

این طرح در پاییز گذشته با هدف توسعه‌ی iOS 15 رونمایی شد؛ اما واکنش‌های شدیدی به‌دنبال داشت؛ زیرا کارشناسان رمزگذاری و حفظ حریم خصوصی مصرف‌کنندگان درباره‌ی خطر ایجاد سیستم‌های نظارتی که مستقیماً گوشی، لپ‌تاپ یا تبلت شما را کنترل می‌کنند هشدار دادند.

در دسامبر گذشته، اپل اعلام کرد که برنامه‌هایش در این زمینه تغییر نکرده است؛ اما اکنون کریگ فدریگی، معاون نرم‌افزار اپل می‌گوید: سواستفاده جنسی را می‌توان پیش از رخ دادن آن متوقف کرد.

فدریگی در پاسخ به این سؤال که تأثیر گسترش رمزگذاری بر کار مأموران اجرای قانون در بررسی جرایم چیست، گفت: «در نهایت، ایمن نگه‌داشتن داده‌های مشتری پیامدهای بزرگی بر ایمنی ما به‌طور گسترده‌تر دارد.»

اکنون اپل درحال گسترش رمزگذاری سرتاسری شامل پشتیبان‌گیری از گوشی و افزودن ویژگی‌های جدید دیگر با هدف حفظ حریم خصوصی و امنیت در هنگام استفاده از iMessage و داده‌های ذخیره‌شده در iCloud است.

اپل در سال جاری میلادی، قسمتی از فناوری را که پاییز گذشته با نام «ایمنی ارتباط در iMessage» معرفی کرده بود، در ایالات متحده به‌عنوان بخشی از به‌روزرسانی iOS 15.2 و در کشورهای دیگر نیز با تغییراتی در برنامه اولیه منتشر کرد. این یک ویژگی انتخابی برای برنامه‌ی پیام‌رسان است که به تنظیمات Family Sharing متصل بوده و تصاویر دریافتی و ارسالی را برای یافتن محتوای غیراخلاقی در حساب‌های کودکان اسکن می‌کند.

در این فناوری اگر چیز ممنوعی تشخیص داده شود، تصویر تار می‌شود و پیامی برای راهنمایی و جهت دریافت کمک یا مسدود‌کردن فرستنده نمایش می‌دهد. در طرح اولیه به نظر می‌رسید که این فناوری به‌طور خودکار والدین را از هر گونه شناسایی سوءاستفاده جنسی مطلع می‌کند؛ اما همان‌طور که گفته شد، تنها به‌عنوان یک گزینه برای کاربر در‌دسترس است.


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع