فناوری تشخیص چهره چیست؟

Father dragging son from the computer

دولت‌ها و شرکت‌ها مدام در حال پیگیری نحوه زندگی ما با استفاده از یک خصوصیت منحصربه‌فرد هستند. خصوصیتی که قادر به تغییر یا پنهان کردنش نیستیم و آن‌ هم چهره ما است. در این راستا، جوامع مختلف در حال عقب راندن قوانینی هستند که این فناوری خطرناک را محدود می‌کند.

در پاسخ، برخی از دولت‌ها و شرکت‌ها ادعا می‌کنند که این قوانین فقط باید در مورد برخی از انواع تشخیص چهره مانند شناسایی چهره اعمال شود و نه دیگر انواع آن، مانند گروه‌بندی و طبقه‌بندی چهره.

اما ما مخالفیم! همه انواع و اقسام تشخیص چهره تهدیدی برای حریم خصوصی، آزادی بیان و عدالت نژادی است. این مقاله بسیاری از انواع مختلف تشخیص چهره را بررسی می‌کند و توضیح می‌دهد که چرا همه آن‌ها باید توسط قوانین مورد توجه قرار گیرند.

به‌ عنوان ساده‌ترین توضیح، فناوری تشخیص چهره تصاویری از چهره انسان‌ها را دریافت می‌کند و سپس سعی می‌کند اطلاعات لازم را از آن‌ها استخراج کند.

نحوه عملکرد فناوری تشخیص چهره

در مرحله اول، تصویر گرفته‌ شده به صورت اتوماتیک پردازش می‌شود تا چهره‌های موجود را از دیگر اجزای موجود در تصویر جدا کند. به‌ طور کلی به این عمل تشخیص چهره (face recognition) گفته می‌شود و ساده‌ترین حالت و پیش‌نیاز سیستم‌های پیچیده‌تر تشخیص چهره است که در ادامه آن‌ها را معرفی می‌کنیم.

علی‌رغم اینکه سامانه‌های تشخیص چهره به‌خودی‌خود برای حریم خصوصی کاربر مضر نیست اما در بسیاری از فناوری‌های تشخیص چهره، مساله تفاوت و تبعیض‌نژادی قابل‌توجهی وجود دارد.

در مرحله بعد، سیستم تشخیص چهره ویژگی‌هایی را از تصویر هر چهره استخراج می‌کند. داده‌های تصویر خام به مجموعه‌ای کوچک‌تر از اعداد پردازش می‌شوند که بیانگر ویژگی‌های خاص یک چهره است و به مجموعه این ویژگی‌ها اغلب اثرچهره (FacePrint) گفته می‌شود.

جهت انجام تمام مراحل پیچیده فرآیندهای مربوطه، می‌توان از اثرچهره به‌ جای تصاویر خام استفاده کرد. بدین گونه که کامپیوتر (ماشین)، جهت مقایسه دو تصویر مجزا و مشخص کردن وجه تمایز آن‌ها از یکدیگر، می‌تواند از اثرچهره آن‌ها استفاده کند. همچنین قادر است ویژگی‌های دیگری مانند جنسیت و احساسات را نیز مشخص کند.

تطبیق چهره

پرکاربردترین نوع تشخیص چهره که عموماً تطبیق چهره (face matching) نامیده می‌شود سعی می‌کند دو یا چند اثر چهره را با هم تطبیق دهد تا مشخص کند که آیا آن‌ها یک شخص هستند یا خیر.

از کاربردهای تطبیق چهره، می‌توان به مرتبط ساختن عکس افراد ناشناس به هویت واقعی آن‌ها اشاره کرد که این عمل معمولاً با استخراج اثرچهره از یک تصویر جدید (به‌ عنوان‌ مثال تصویری که توسط دوربین امنیتی گرفته ‌شده است) و مقایسه آن با اثرچهره‌های شناخته شده موجود در پایگاه‌داده‌ (مانند پایگاه داده دولتی از تصاویر کارت ملی) انجام می‌شود.

اگر چهره ناشناخته به‌ اندازه کافی شبیه به هر یک از چهره‌های شناخته شده موجود در پایگاه‌داده باشد، سیستم، به نزدیک‌ترین مطابقت احتمالی مراجعه می‌کند که این امر عموماً تحت عنوان شناسایی چهره (face identification) شناخته می‌شود. همچنین در موضوع تطبیق چهره بدون اینکه نیاز باشد بدانیم چهره متعلق به چه کسی است می‌توان بررسی کرد آیا دو اثر چهره از یک چهره هستند یا نه!

به‌ عنوان‌ مثال، یک تلفن همراه ممکن است چهره کاربر را بررسی کند تا مشخص کند که آیا باید قفل آن را باز کند یا خیر که به این فرایند تأیید چهره یا احراز هویت (face verification) می‌گویند. همچنین یک سایت رسانه اجتماعی (سوشال مدیا) ممکن است عکس‌های یک کاربر را اسکن کند تا مشخص کند چه تعداد از افراد منحصربه‌فرد در آن‌ عکس‌ها حضور دارند که عموماً این فناوری، خوشه‌بندی چهره (face clustering) نامیده می‌شود، گرچه ممکن است آن افراد را با نام شناسایی نکند.

این فناوری برای تطبیق یک‌به‌یک (آیا دو عکس از یک شخص؟)، مطابقت یک به چند (آیا این عکس مرجع با یکی از چهره‌های مجموعه‌تصاویر مطابقت دارد؟) یا تطابق چند به چند (چند چهره منحصربه‌فرد در مجموعه‌ای از تصاویر وجود دارد؟) نیز می‌تواند به کار رود. از دیگر کاربردهای آن می‌توان به ردیابی حرکات یک فرد در زمان واقعی (در لحظه) حتی بدون برچسب زدن چهره‌ها با نام‌ها، اشاره کرد که ردیابی چهره (face tracking) نامیده می‌شود.

نگرانی‌هایی درباره‌ حقوق دیجیتالی

انواع تطبیق چهره از جمله شناسایی چهره، تأیید، ردیابی و خوشه‌بندی، نگرانی‌های جدی در مورد حقوق دیجیتالی ایجاد کرده است که قانون‌گذاران باید به همه آن‌ها رسیدگی کنند. هر سیستم تشخیص چهره‌ای که برای ‘ردیابی’، ‘خوشه‌بندی’ و یا ‘تأیید’ یک فرد ناشناس استفاده می‌شود، می‌تواند به‌ راحتی برای ‘شناسایی’ نیز استفاده شود. برای مثال، تنها لازم است مجموعه‌ای از چهره‌های «شناخته» را به خوشه‌ای از چهره‌های «ناشناخته» پیوند دهیم تا خوشه‌بندی به شناسایی تبدیل شود. حتی اگر هرگز از فناوری شناسایی چهره استفاده نشود، فناوری‌های خوشه‌بندی و ردیابی چهره می‌توانند حریم خصوصی، آزادی بیان و برابری را تهدید کنند.

به‌ عنوان‌ مثال، پلیس ممکن است از فناوری ردیابی چهره برای تعقیب یک معترض ناشناس، از یک تجمع تا خانه یا ماشینش استفاده کند و سپس او را با پایگاه‌داده آدرس یا پلاک شناسایی کند. همچنین ممکن است از فناوری خوشه‌بندی چهره برای ایجاد یک مجموعه (آرایه) چند عکسی، از معترض بخصوصی که هویتش ناشناس است استفاده کند و با مقایسه آن مجموعه با یک پایگاه‌داده mugshot، معترض را به‌ صورت دستی شناسایی کند، جایی که چنین شناسایی تنها با استفاده از “یک عکس” از معترض، غیرممکن بود.

دقت، خطا، تبعیض‌نژادی

در سال ۲۰۱۹، نیجر پارکس به‌ اشتباه پس از شناسایی نادرست توسط یک سیستم تشخیص چهره دستگیر شد. پارکس علیرغم فاصله ۳۰ مایلی از محل جنایت مورد بررسی، ۱۰ روز را در زندان گذراند تا اینکه پلیس به‌ اشتباه خود اعتراف کرد. نیجر پارکس حداقل سومین فردی است که به دلیل نقص در فناوری تشخیص چهره به‌ اشتباه دستگیر شده است. تصادفی نیست که هر سه نفر سیاه‌پوست بودند. تشخیص چهره هرگز کامل و بی‌نقص نیست، اما در زمان مواجهه با افراد رنگین‌پوست یا اقلیت‌های جنسیتی، به‌طور نگران‌کننده‌ای مستعد خطا هستند.

در یک مطالعه پیشگام در سال ۲۰۱۸، جوی بولاموینی و دکتر تیمنیت گبرو نشان دادند که سیستم‌های شناسایی چهره، زنان رنگین‌پوست را بیش از ۴۰ برابر مردان سفیدپوست به‌ اشتباه شناسایی می‌کنند. اخیراً، آزمایش NIST-testing سیستم‌های مختلف تشخیص چهره پیشرفته، روند گسترده و قابل‌توجهی از نرخ‌های متفاوت «مثبت کاذب» را در میان جمعیت‌ آماری تایید کرده است، که در این تست، چهره‌هایی که سفیدپوست و مرد نبودند درصد خطای بالاتری داشتند!

علاوه بر این، سیستم‌های شناسایی چهره ممکن است در معیارها و مقیاس‌های آزمایشگاهی بهتر عمل کنند. در واقع، روند شناسایی برای عکس‌هایی که با نور خوب گرفته ‌شده‌اند نسبت به عکس‌های طبیعی در دنیای واقعی، بسیار دقیق‌تر است. وقتی به همان فناوری، کاربردی نزدیک به واقعیت داده شود، مانند شناسایی افرادی که از گیت سوارشدن به هواپیما در فرودگاه عبور می‌کنند، عملکرد ضعیف‌تری نسبت به شرایط ایده‌آل دارد.
به دلایل بسیاری، استفاده گسترده از شناسایی چهره، حتی اگر دقیق و بی‌طرفانه باشد، با یک جامعه آزاد و لیبرال ناسازگار است و فناوری امروز که به‌ دور از دقت لازم و کافی و عمیقاً مغرضانه است، منجر به تشدید نژادپرستی سیستماتیک موجود در سیستم عدالت کیفری می‌شود. این‌ یکی دیگر از دلایلی است که قوانین حفظ حریم خصوصی باید همه جنبه‌ها و انواع سیستم‌های تشخیص چهره را مورد توجه قرار دهند.

سایر زیرمجموعه‌های تشخیص چهره

تشخیص چهره کاربردهایی فراتر از تطبیق یک “اثر چهره” با یک “اثر چهره” دیگر دارد و می‌تواند برای حدس زدن ویژگی‌های جمعیت شناختی مانند سن، جنسیت، وضعیت خانوادگی، سطح تحصیلات، درآمد، شغل، نژاد و وضعیت عاطفی استفاده شود.

تجزیه‌وتحلیل چهره

البته اگر فناوری تشخیص چهره، تنها افرادی با ویژگی‌های از پیش تعریف شده را تحت پوشش قرار دهد، برای کسانی که جزو اقلیت‌ها هستند، نمی‌تواند عملکرد درستی داشته باشد. در این شرایط، فناوری تشخیص چهره به یک تهدید بزرگ تبدیل می‌شود که در نهایت و در بدترین حالت می‌تواند به روند نسل‌کشی کمک کند! به‌عنوان یک مثال ساده: فروشگاه‌ها ممکن است سعی کنند از تجزیه‌وتحلیل چهره استفاده کنند تا مشتریان را بر اساس جنسیت، رنگ پوست و وضعیت عاطفی آن‌ها به سمت کالاها و تخفیف‌های مختلف، هدایت کنند.

تشخیص جنسیت

همچنین استفاده مطلق از این فناوری‌ می‌تواند به دسته‌ای از افراد که در اقلیت‌های جنسیتی قرار دارند آسیب برساند. افرادی که شاید در عرف جامعه شناخته شده نباشند یا تشخیص ویژگی‌های جنسیتی و گرایش آن‌ها به‌سادگی امکان‌پذیر نباشد. به همین دلیل است که برخی از فعالان در این زمینه، برای ممنوعیت تشخیص خودکار جنسیت و گرایش جنسی کمپین می‌کنند.

تحلیل احساسات

تجزیه‌وتحلیل چهره می‌تواند احساسات یک فرد را شناسایی کند و یا تغییرات آن را متوجه شود. این بررسی‌ها، هم روی تصاویر زنده و هم در تصاویر از پیش ضبط شده اعمال می‌شود. چندین شرکت فروش خدمات ادعا می‌کنند می‌توانند احساس یک فرد را بر اساس چهره آنها تعیین کنند.

این فناوری شبه‌علم است: در بهترین حالت ممکن است یاد بگیرد که برخی هنجارهای فرهنگی را شناسایی کند. اما مردم اغلب بر اساس فرهنگ، خلق‌وخوی و واگرایی عصبی احساسات خود را متفاوت بیان می‌کنند. از این رو، تلاش برای کشف یک نگاشت جهانی از «حالت چهره» به «احساس» یک هدف بزرگ همگانی است.

موسسه تحقیقاتی AI Now در گزارش کوبنده خود در سال 2019 به عدم مبنای علمی و پتانسیل سواستفاده تبعیض‌آمیز این فناوری اشاره کرده و از قانون‌گذاران خواسته است تا استفاده از آن را برای تصمیم‌گیری‌های مهم در مورد زندگی انسان‌ها ممنوع کنند. علیرغم فقدان پشتوانه علمی، تشخیص احساسات در میان بسیاری از تبلیغ‌کنندگان و محققان بازار رایج است. این شرکت‌ها با توجه به محدودیت‌های نظرسنجی‌ مصرف‌کننده، با یا بدون رضایت آن‌ها، عکس‌العمل مردم در مواجهه با رسانه‌ها و تبلیغات را ارزیابی می‌کنند.

موضوع نگران‌کننده‌تر این است که این سیستم‌ها را می‌توان در نیروی پلیس تحت عنوان «پیش از جنایت» (pre-crime) به کار برد. در واقع این سیستم، با استفاده از حدس‌های رایانه‌ای، وضعیت روانی افرادی که هیچ اشتباهی انجام نداده‌اند را تحت بررسی دقیق قرار می‌دهد. برای مثال، وزارت امنیت داخلی ایالات‌متحده میلیون‌ها دلار را برای پروژه‌ای به نام «FAST» هزینه کرد که در آن از استنتاج چهره، برای تشخیص سوءنیت و فریب افراد در فرودگاه‌ها و مرزها استفاده می‌کرد.

تجزیه‌وتحلیل چهره همچنین می‌تواند تحت عنوان به‌ اصطلاح «ردیاب‌های پرخاشگری» شناخته شود که ظاهراً می‌تواند زمان از کوره دررفتن افراد را پیش‌بینی کند. این سیستم‌ها بسیار مغرضانه هستند و به‌هیچ‌وجه قابل‌اعتماد نیستند. بااین‌حال به‌احتمال‌زیاد از آن برای توجیه زور بیش‌ازحد یا بازداشت نادرست علیه هر فردی که سیستم تشخیص دهد «عصبانی» یا «فریبنده» است، استفاده خواهد شد. استفاده از این قبیل الگوریتم‌ها برای شناسایی افراد با هدف بازداشت یا بازرسی انضباطی بسیار دشوار و امری حساس است و به‌جای ایمن‌تر کردن شرایط و وضعیت، باعث تشدید تعصبات موجود می‌شود.

برخی از محققان حتی تا آنجا پیش رفته‌اند که گفته‌اند «جرم» را می‌توان از چهره فرد پیش‌بینی کرد! این حرف به‌وضوح و به قطع یقین اشتباه است. اگر این‌چنین باشد، این فناوری به‌طور غیرقابل قبولی مشکلات موجود در زمینه‌ اقدامات پیشگیرانه پلیس را تشدید می‌کند.

اقدامات لازم

کاهش خطرات ناشی از زیرمجموعه‌های مختلف تشخیص چهره مستلزم آن است که هر یک از ما به‌عنوان تصمیم‌گیرنده نهایی در نحوه جمع‌آوری، استفاده یا اشتراک‌گذاری داده‌های بیومتریک خود قدرت و اختیار داشته باشیم و برای محافظت از خود و جامعه در برابر شرکت‌هایی که بدون رضایت افراد به جمع‌آوری داده‌های بیومتریک آن‌ها می‌پردازند، مقابله کنیم.

استفاده دولت از فناوری تشخیص چهره تهدیدی بزرگ‌تر برای آزادی و حقوق اساسی و اولیه ما است. به همین دلیل است که سازمان‌های دولتی باید به این کار پایان دهند. بیش از دوازده جامعه از سانفرانسیسکو تا بوستون قبلاً با ممنوع کردن آژانس‌های محلی خود برای استفاده از این فناوری اقدام کرده‌اند.

دیدگاهتان را بنویسید

موسسه موج حامی رسانه، به لطف قادرمتعال، افتخار همکاری با بسیاری از جوانان و متخصصان توانمند میهن عزیزمان ایران را داشته است، و همیشه با این افتخار به خود بالیده است و همواره این همکاری را بزرگترین سرمایه خود دانسته و می داند.

در تماس باشید

نشانی: تهران، خ فرجام شرقی، خ باغدارنیا، خ قهاری(178) غربی،به سمت اتوبان، دست راست پ51

2191309064

info@mojmedia.ir

mojmedia_com@

logo-samandehi