اپل توسعه سیستم تشخیص سوءاستفاده جنسی از کودکان را متوقف کرد

به‌گزارش وال‌استریت‌ژورنال، اپل به توسعه‌ی فناوری شناسایی سوء استفاده جنسی احتمالی از کودکان (CSAM) که در دستگاه‌های کاربر ذخیره می‌شود، پایان داده است. این طرح در پاییز گذشته با هدف توسعه‌ی iOS
این پست هنوز هیچ لایکی ندارد

منوی سریع