
دولتها و شرکتها مدام در حال پیگیری نحوه زندگی ما با استفاده از یک خصوصیت منحصربهفرد هستند. خصوصیتی که قادر به تغییر یا پنهان کردنش نیستیم و آن هم چهره ما است. در این راستا، جوامع مختلف در حال عقب راندن قوانینی هستند که این فناوری خطرناک را محدود میکند.
در پاسخ، برخی از دولتها و شرکتها ادعا میکنند که این قوانین فقط باید در مورد برخی از انواع تشخیص چهره مانند شناسایی چهره اعمال شود و نه دیگر انواع آن، مانند گروهبندی و طبقهبندی چهره.
اما ما مخالفیم! همه انواع و اقسام تشخیص چهره تهدیدی برای حریم خصوصی، آزادی بیان و عدالت نژادی است. این مقاله بسیاری از انواع مختلف تشخیص چهره را بررسی میکند و توضیح میدهد که چرا همه آنها باید توسط قوانین مورد توجه قرار گیرند.
به عنوان سادهترین توضیح، فناوری تشخیص چهره تصاویری از چهره انسانها را دریافت میکند و سپس سعی میکند اطلاعات لازم را از آنها استخراج کند.

نحوه عملکرد فناوری تشخیص چهره
در مرحله اول، تصویر گرفته شده به صورت اتوماتیک پردازش میشود تا چهرههای موجود را از دیگر اجزای موجود در تصویر جدا کند. به طور کلی به این عمل تشخیص چهره (face recognition) گفته میشود و سادهترین حالت و پیشنیاز سیستمهای پیچیدهتر تشخیص چهره است که در ادامه آنها را معرفی میکنیم.
علیرغم اینکه سامانههای تشخیص چهره بهخودیخود برای حریم خصوصی کاربر مضر نیست اما در بسیاری از فناوریهای تشخیص چهره، مساله تفاوت و تبعیضنژادی قابلتوجهی وجود دارد.
در مرحله بعد، سیستم تشخیص چهره ویژگیهایی را از تصویر هر چهره استخراج میکند. دادههای تصویر خام به مجموعهای کوچکتر از اعداد پردازش میشوند که بیانگر ویژگیهای خاص یک چهره است و به مجموعه این ویژگیها اغلب اثرچهره (FacePrint) گفته میشود.
جهت انجام تمام مراحل پیچیده فرآیندهای مربوطه، میتوان از اثرچهره به جای تصاویر خام استفاده کرد. بدین گونه که کامپیوتر (ماشین)، جهت مقایسه دو تصویر مجزا و مشخص کردن وجه تمایز آنها از یکدیگر، میتواند از اثرچهره آنها استفاده کند. همچنین قادر است ویژگیهای دیگری مانند جنسیت و احساسات را نیز مشخص کند.
تطبیق چهره
پرکاربردترین نوع تشخیص چهره که عموماً تطبیق چهره (face matching) نامیده میشود سعی میکند دو یا چند اثر چهره را با هم تطبیق دهد تا مشخص کند که آیا آنها یک شخص هستند یا خیر.
از کاربردهای تطبیق چهره، میتوان به مرتبط ساختن عکس افراد ناشناس به هویت واقعی آنها اشاره کرد که این عمل معمولاً با استخراج اثرچهره از یک تصویر جدید (به عنوان مثال تصویری که توسط دوربین امنیتی گرفته شده است) و مقایسه آن با اثرچهرههای شناخته شده موجود در پایگاهداده (مانند پایگاه داده دولتی از تصاویر کارت ملی) انجام میشود.
اگر چهره ناشناخته به اندازه کافی شبیه به هر یک از چهرههای شناخته شده موجود در پایگاهداده باشد، سیستم، به نزدیکترین مطابقت احتمالی مراجعه میکند که این امر عموماً تحت عنوان شناسایی چهره (face identification) شناخته میشود. همچنین در موضوع تطبیق چهره بدون اینکه نیاز باشد بدانیم چهره متعلق به چه کسی است میتوان بررسی کرد آیا دو اثر چهره از یک چهره هستند یا نه!
به عنوان مثال، یک تلفن همراه ممکن است چهره کاربر را بررسی کند تا مشخص کند که آیا باید قفل آن را باز کند یا خیر که به این فرایند تأیید چهره یا احراز هویت (face verification) میگویند. همچنین یک سایت رسانه اجتماعی (سوشال مدیا) ممکن است عکسهای یک کاربر را اسکن کند تا مشخص کند چه تعداد از افراد منحصربهفرد در آن عکسها حضور دارند که عموماً این فناوری، خوشهبندی چهره (face clustering) نامیده میشود، گرچه ممکن است آن افراد را با نام شناسایی نکند.
این فناوری برای تطبیق یکبهیک (آیا دو عکس از یک شخص؟)، مطابقت یک به چند (آیا این عکس مرجع با یکی از چهرههای مجموعهتصاویر مطابقت دارد؟) یا تطابق چند به چند (چند چهره منحصربهفرد در مجموعهای از تصاویر وجود دارد؟) نیز میتواند به کار رود. از دیگر کاربردهای آن میتوان به ردیابی حرکات یک فرد در زمان واقعی (در لحظه) حتی بدون برچسب زدن چهرهها با نامها، اشاره کرد که ردیابی چهره (face tracking) نامیده میشود.
نگرانیهایی درباره حقوق دیجیتالی
انواع تطبیق چهره از جمله شناسایی چهره، تأیید، ردیابی و خوشهبندی، نگرانیهای جدی در مورد حقوق دیجیتالی ایجاد کرده است که قانونگذاران باید به همه آنها رسیدگی کنند. هر سیستم تشخیص چهرهای که برای ‘ردیابی’، ‘خوشهبندی’ و یا ‘تأیید’ یک فرد ناشناس استفاده میشود، میتواند به راحتی برای ‘شناسایی’ نیز استفاده شود. برای مثال، تنها لازم است مجموعهای از چهرههای «شناخته» را به خوشهای از چهرههای «ناشناخته» پیوند دهیم تا خوشهبندی به شناسایی تبدیل شود. حتی اگر هرگز از فناوری شناسایی چهره استفاده نشود، فناوریهای خوشهبندی و ردیابی چهره میتوانند حریم خصوصی، آزادی بیان و برابری را تهدید کنند.
به عنوان مثال، پلیس ممکن است از فناوری ردیابی چهره برای تعقیب یک معترض ناشناس، از یک تجمع تا خانه یا ماشینش استفاده کند و سپس او را با پایگاهداده آدرس یا پلاک شناسایی کند. همچنین ممکن است از فناوری خوشهبندی چهره برای ایجاد یک مجموعه (آرایه) چند عکسی، از معترض بخصوصی که هویتش ناشناس است استفاده کند و با مقایسه آن مجموعه با یک پایگاهداده mugshot، معترض را به صورت دستی شناسایی کند، جایی که چنین شناسایی تنها با استفاده از “یک عکس” از معترض، غیرممکن بود.
دقت، خطا، تبعیضنژادی
در سال ۲۰۱۹، نیجر پارکس به اشتباه پس از شناسایی نادرست توسط یک سیستم تشخیص چهره دستگیر شد. پارکس علیرغم فاصله ۳۰ مایلی از محل جنایت مورد بررسی، ۱۰ روز را در زندان گذراند تا اینکه پلیس به اشتباه خود اعتراف کرد. نیجر پارکس حداقل سومین فردی است که به دلیل نقص در فناوری تشخیص چهره به اشتباه دستگیر شده است. تصادفی نیست که هر سه نفر سیاهپوست بودند. تشخیص چهره هرگز کامل و بینقص نیست، اما در زمان مواجهه با افراد رنگینپوست یا اقلیتهای جنسیتی، بهطور نگرانکنندهای مستعد خطا هستند.
در یک مطالعه پیشگام در سال ۲۰۱۸، جوی بولاموینی و دکتر تیمنیت گبرو نشان دادند که سیستمهای شناسایی چهره، زنان رنگینپوست را بیش از ۴۰ برابر مردان سفیدپوست به اشتباه شناسایی میکنند. اخیراً، آزمایش NIST-testing سیستمهای مختلف تشخیص چهره پیشرفته، روند گسترده و قابلتوجهی از نرخهای متفاوت «مثبت کاذب» را در میان جمعیت آماری تایید کرده است، که در این تست، چهرههایی که سفیدپوست و مرد نبودند درصد خطای بالاتری داشتند!
علاوه بر این، سیستمهای شناسایی چهره ممکن است در معیارها و مقیاسهای آزمایشگاهی بهتر عمل کنند. در واقع، روند شناسایی برای عکسهایی که با نور خوب گرفته شدهاند نسبت به عکسهای طبیعی در دنیای واقعی، بسیار دقیقتر است. وقتی به همان فناوری، کاربردی نزدیک به واقعیت داده شود، مانند شناسایی افرادی که از گیت سوارشدن به هواپیما در فرودگاه عبور میکنند، عملکرد ضعیفتری نسبت به شرایط ایدهآل دارد.
به دلایل بسیاری، استفاده گسترده از شناسایی چهره، حتی اگر دقیق و بیطرفانه باشد، با یک جامعه آزاد و لیبرال ناسازگار است و فناوری امروز که به دور از دقت لازم و کافی و عمیقاً مغرضانه است، منجر به تشدید نژادپرستی سیستماتیک موجود در سیستم عدالت کیفری میشود. این یکی دیگر از دلایلی است که قوانین حفظ حریم خصوصی باید همه جنبهها و انواع سیستمهای تشخیص چهره را مورد توجه قرار دهند.

سایر زیرمجموعههای تشخیص چهره
تشخیص چهره کاربردهایی فراتر از تطبیق یک “اثر چهره” با یک “اثر چهره” دیگر دارد و میتواند برای حدس زدن ویژگیهای جمعیت شناختی مانند سن، جنسیت، وضعیت خانوادگی، سطح تحصیلات، درآمد، شغل، نژاد و وضعیت عاطفی استفاده شود.
تجزیهوتحلیل چهره
البته اگر فناوری تشخیص چهره، تنها افرادی با ویژگیهای از پیش تعریف شده را تحت پوشش قرار دهد، برای کسانی که جزو اقلیتها هستند، نمیتواند عملکرد درستی داشته باشد. در این شرایط، فناوری تشخیص چهره به یک تهدید بزرگ تبدیل میشود که در نهایت و در بدترین حالت میتواند به روند نسلکشی کمک کند! بهعنوان یک مثال ساده: فروشگاهها ممکن است سعی کنند از تجزیهوتحلیل چهره استفاده کنند تا مشتریان را بر اساس جنسیت، رنگ پوست و وضعیت عاطفی آنها به سمت کالاها و تخفیفهای مختلف، هدایت کنند.
تشخیص جنسیت
همچنین استفاده مطلق از این فناوری میتواند به دستهای از افراد که در اقلیتهای جنسیتی قرار دارند آسیب برساند. افرادی که شاید در عرف جامعه شناخته شده نباشند یا تشخیص ویژگیهای جنسیتی و گرایش آنها بهسادگی امکانپذیر نباشد. به همین دلیل است که برخی از فعالان در این زمینه، برای ممنوعیت تشخیص خودکار جنسیت و گرایش جنسی کمپین میکنند.
تحلیل احساسات
تجزیهوتحلیل چهره میتواند احساسات یک فرد را شناسایی کند و یا تغییرات آن را متوجه شود. این بررسیها، هم روی تصاویر زنده و هم در تصاویر از پیش ضبط شده اعمال میشود. چندین شرکت فروش خدمات ادعا میکنند میتوانند احساس یک فرد را بر اساس چهره آنها تعیین کنند.
این فناوری شبهعلم است: در بهترین حالت ممکن است یاد بگیرد که برخی هنجارهای فرهنگی را شناسایی کند. اما مردم اغلب بر اساس فرهنگ، خلقوخوی و واگرایی عصبی احساسات خود را متفاوت بیان میکنند. از این رو، تلاش برای کشف یک نگاشت جهانی از «حالت چهره» به «احساس» یک هدف بزرگ همگانی است.

موسسه تحقیقاتی AI Now در گزارش کوبنده خود در سال 2019 به عدم مبنای علمی و پتانسیل سواستفاده تبعیضآمیز این فناوری اشاره کرده و از قانونگذاران خواسته است تا استفاده از آن را برای تصمیمگیریهای مهم در مورد زندگی انسانها ممنوع کنند. علیرغم فقدان پشتوانه علمی، تشخیص احساسات در میان بسیاری از تبلیغکنندگان و محققان بازار رایج است. این شرکتها با توجه به محدودیتهای نظرسنجی مصرفکننده، با یا بدون رضایت آنها، عکسالعمل مردم در مواجهه با رسانهها و تبلیغات را ارزیابی میکنند.
موضوع نگرانکنندهتر این است که این سیستمها را میتوان در نیروی پلیس تحت عنوان «پیش از جنایت» (pre-crime) به کار برد. در واقع این سیستم، با استفاده از حدسهای رایانهای، وضعیت روانی افرادی که هیچ اشتباهی انجام ندادهاند را تحت بررسی دقیق قرار میدهد. برای مثال، وزارت امنیت داخلی ایالاتمتحده میلیونها دلار را برای پروژهای به نام «FAST» هزینه کرد که در آن از استنتاج چهره، برای تشخیص سوءنیت و فریب افراد در فرودگاهها و مرزها استفاده میکرد.
تجزیهوتحلیل چهره همچنین میتواند تحت عنوان به اصطلاح «ردیابهای پرخاشگری» شناخته شود که ظاهراً میتواند زمان از کوره دررفتن افراد را پیشبینی کند. این سیستمها بسیار مغرضانه هستند و بههیچوجه قابلاعتماد نیستند. بااینحال بهاحتمالزیاد از آن برای توجیه زور بیشازحد یا بازداشت نادرست علیه هر فردی که سیستم تشخیص دهد «عصبانی» یا «فریبنده» است، استفاده خواهد شد. استفاده از این قبیل الگوریتمها برای شناسایی افراد با هدف بازداشت یا بازرسی انضباطی بسیار دشوار و امری حساس است و بهجای ایمنتر کردن شرایط و وضعیت، باعث تشدید تعصبات موجود میشود.
برخی از محققان حتی تا آنجا پیش رفتهاند که گفتهاند «جرم» را میتوان از چهره فرد پیشبینی کرد! این حرف بهوضوح و به قطع یقین اشتباه است. اگر اینچنین باشد، این فناوری بهطور غیرقابل قبولی مشکلات موجود در زمینه اقدامات پیشگیرانه پلیس را تشدید میکند.
اقدامات لازم
کاهش خطرات ناشی از زیرمجموعههای مختلف تشخیص چهره مستلزم آن است که هر یک از ما بهعنوان تصمیمگیرنده نهایی در نحوه جمعآوری، استفاده یا اشتراکگذاری دادههای بیومتریک خود قدرت و اختیار داشته باشیم و برای محافظت از خود و جامعه در برابر شرکتهایی که بدون رضایت افراد به جمعآوری دادههای بیومتریک آنها میپردازند، مقابله کنیم.
استفاده دولت از فناوری تشخیص چهره تهدیدی بزرگتر برای آزادی و حقوق اساسی و اولیه ما است. به همین دلیل است که سازمانهای دولتی باید به این کار پایان دهند. بیش از دوازده جامعه از سانفرانسیسکو تا بوستون قبلاً با ممنوع کردن آژانسهای محلی خود برای استفاده از این فناوری اقدام کردهاند.