هوش مصنوعی در صنعت زیبایی- بخش سوم: جعبه ‌سیاه‌های بزرگ

پیشرفت‌هایی که به تازگی در حوزه یادگیری عمیق حاصل شده دقت سیستم‌های سنجش زیبایی مجهز به هوش مصنوعی را تا حد زیادی افزایش تغییر داده است.  پیش از روی کار آمدن یادگیری عمیق، تحلیل چهره بر مهندسی ویژگی تکیه داشت؛ در مهندسی ویژگی هوش مصنوعی برای تحلیل چهره به درک و شناخت عمیق از ویژگی‌های چهره وابسته است. به عنوان مثال، فرمول جذابیت یک چهره ممکن است چشمان درشت و خط فک باشد. سرج بلونژی، یکی از اساتید بینایی کامپیوتر در دانشگاه کرنل می‌گوید «فرض کنید به چهره یک فرد نگاه می‌کنید و تصویری به سبک نقاشی لئوناردو داوینچی، برای مثال با همان میزان فاصله میان چشم‌ها و مواردی از این قبیل می‌بینید». به گفته وی، با پیدایش یادگیری عمیق، «توجه همه به سوی کلان داده و جعبه‌ سیاه‌های بزرگ محاسبات شبکه‌های عصبی جلب شد که حجم بالایی از داده‌های برچسب‌دار را پردازش می‌کردند.» وی در ادامه می‌گوید: «و در پایان مشخص شد  عملکرد آن نسبت به سایر ابزار‌ها و وسایل که دهه‌ها از آن‌ها استفاده می‌کردیم، بهتر است.»

نکته اصلی هم همین است. بلونژی می‌گوید نحوه عملکرد آن‌ها هنوز برای‌‌شان مشخص نیست، « افراد فعال در این صنعت از این فناوری رضایت دارند اما نحوه عملکرد آن‌ها بر دانشگاهیان پوشیده اسا». زیبایی امری نسبی است، نهایت کاری که یک سیستم سنجش زیبایی مجهز به AI می‌تواند انجام دهد این است که همان معیارهای زیبایی که در طول فرایند آموزش بر روی آن‌ها آموزش دیده را به درستی تشخیص دهد. با این حال امروزه برخی از سیستم‌های هوش مصنوعی در مجموعه آموزشی، با نرخ دقتی برابر با انسان‌ها به جذابیت افراد نمره می‌دهند که می‌تواند به این معنا باشد که به اندازه انسان‌ها هم سوگیری دارند. مهم‌تر اینکه از آنجایی‌که سیستم‌ها نفوذناپذیر هستند و اتخاذ راهکارهایی برای به حداقل رساندن سوگیری الگوریتم دشوار و به لحاظ محاسباتی هزینه‌بر است.

به گفته بلونژی اپلیکیشن‌های دیگری هم وجود دارند که مجهز به این فناوری هستند و عملکرد بهتری دارند؛ این اپلیکیشن‌ها کارشان سنجش زیبایی و جذابیت افراد نیست و آسیب‌های استفاده از آن‌ها کمتر است-برای نمونه می‌توان از ابزاری نام برد که می‌تواند زیباترین عکس از غروب آفتاب در تلفن همراه‌تان را به شما پیشنهاد می‌دهد. سنجش زیبایی امری کاملاً متفاوت است. به گفته وی سنجش زیبایی:« عملی ترسناک است.»

داده‌های آموزشی و کاربردهای تجاری عاری از سوگیری و بی‌خطر هستند، اما بینایی ماشین به لحاظ فنی در زمینه تشخیص رنگ پوست انسان‌ها محدودیت‌هایی دارد. به کمک تراشه‌های عکس‌برداری به کار رفته در دوربین‌ها می‌توان طیف مشخصی از انواع رنگ پوست را پردازش کرد. از دیرباز «به برخی از رنگ پوست‌ها کمتر توجه می‌شد »، «به عبارت دیگر، در عکس‌ها هم برخی از این رنگ پوست‌ها ظاهر نمی‌شدند.  حتی پیشرفته‌‎ترین ابزارهای سنجش زیبایی هم شاید نتوانند در امر سنجش زیبایی افراد موفق عمل کنند، زیرا درجه روشنی پوست به درستی نشان داده نمی‌شوند.»

سوگیری‌ها در قالب نژادپرستی و در اپلیکیشن‌های تجاری نمود پیدا می‌کنند. در سال ۲۰۱۸، لورن روی، اقتصاددان و دانشیار سیستم‌های اطلاعاتی در دانشگاه مریلند، کالج پارک، در هنگام خرید ابزارهای تشخیص چهره بود که به چندین محصول غیرعادی برخورد.

او می‌گوید: « متوجه شدم الگوریتم‌هایی برای سنجش و نمره‌دهی زیبایی وجود دارد و با خودم گفتم چنین چیزی غیرممکن است. منظور این است که زیبایی در نظر هر شخصی می‌تواند متفاوت باشد. چگونه می‌توان الگوریتمی را آموزش داد تا مشخص کند فردی زیبا است یا نه؟» پس از گذشت مدت زمان اندکی، این الگوریتم‌ها به موضوع اصلی مطالعات وی بدل شدند.

لورن روی با مطالعه عملکرد و شیوه سنجش زیبایی سیستم Face++ متوجه شد که این سیستم به صورت پیوسته زنانی که رنگ پوست تیره‌تری داشتند را در دسته افرادی با جذابیت کمتر طبقه‌بندی می‌کند و صورت‌‌هایی که مشابه چهره‌های اروپاییان بودند، برای مثال موی روشن‌تر و بینی کوچک‌تر داشتند، بدون توجه به رنگ پوست‌شان امتیاز بیشتری دریافت می‌کردند. این سوگیری نسبت به ویژگی چهره‌های اروپایی در AI نشان می‌دهد افرادی  که تصاویر را رتبه‌بندی کرده و برای آموزش و کدگذاری سیستم از آن‌ها استفاده کرده‌اند، سوگیری داشته‌اند. برای مثال، بر اساس استانداردهای زیبایی چین، پوست روشن‌تر، چشمان درشت‌تر و بینی‌ کوچک از اهمیت بیشتری برخوردار است.

به عقیده وی امتیازاتی که میزان زیبایی افراد را تعیین می‌کنند بخشی از فرهنگ ناسالم زیبایی و الگوریتم‌های توصیه‌گری است که روزانه در اینترنت به آن‌ها برمی‌خوریم. برای مثال زمانی که بر مبنای این امتیازات مشخص کنیم چه پُست‌هایی بر روی پلتفرم‌های شبکه‌های اجتماعی قرار بگیرند، معیارهای زیبایی و جذابیت تقویت می‌شوند و ماشین افرادی را که با معیارهاشان هماهنگ نیستند نادیده می‌گیرد. روی می‌گوید ما به نوعی «عکس‌های که می‌توانند در دسترس همگان قرار بگیرند را محدود می‌کنیم».

اما ایراداتی به این چرخه وارد است: اینکه افراد بیشتر به محتواهایی نگاه می‌کنند که افراد جذاب در آن‌ها به چشم می‌خورد موجب می‌شود این تصاویر توجه افراد بیشتری را به خود جلب ‌کنند و در نتیجه به افراد بیشتری نشان داده ‌شوند. در نهایت، حتی اگر امتیاز بالای عکس عامل مستقیم نشان دادن این محتوا به شما نباشد، بی شک عامل غیرمستقیم آن است.

لورن روی در پژوهشی که در سال ۲۰۱۹ منتشر کرد، نحوه عملکرد دو الگوریتم را، یکی در زمینه پیش‌بینی سن و یکی در زمینه امتیازدهی به میزان زیبایی افراد، بررسی کرد. برای انجام این پژوهش، تصاویری از افراد به مشارکت‌کنندگان نشان داد و از آن‌ها خواست میزان زیبایی افراد درون تصاویر را ارزیابی کنند و سن آن‌ها را حدس بزنند. به گروهی از مشارکت‌کنندگان، پیش از اینکه جواب‌های‌شان را اعلام کنند امتیازاتی که AI برآورد کرده بود  نشان داد و به گروه دیگر این امتیازات را نشان ندادند. روی متوجه شد مشارکت‌کنندگانی که در جریان امتیازات و رتبه‌بندی AI قرار نگرفته بودند، سوگیری کمتری داشتند و در مقابل افرادی که در جریان نحوه رتبه‌بندی افراد بر اساس میزان جذابیت به وسیله AI قرار گرفتند، امتیازاتی نزدیک به امتیاز الگوریتم به افراد دادند. روی این پدیده را ‘anchoring effect’ می‌نامد.

وی می‌گوید: «الگوریتم‌های توصیه‌گر در حال تغییر معیارها و استانداردهای ما هستند.» و «البته چالش از منظر فناوری این است که زیاد آن‌ها را محدود نکنیم. زمانی که صحبت از زیبایی به میان می‌آید، این الگوریتم‌ها بیشتر محدود می‌شوند.»

 

«دلیلی نمی‌بینم نواقص چهره‌ افراد را به آن‌ها گوشزد نکنیم، زیرا روش‌هایی برای رفع آن‌ها وجود دارد.»

حسن مدعی است که تمام تلاشش را کرده تا مشکل سوگیری نژادی را حل کند. استودیو او در زمان تدوین یک گزارش کامل از تحلیل چهره- از آن دست گزارشاتی که مشتریان حاضرند در قبال پرداخت هزینه دریافت کنند- تلاش می‌کند با استفاده از داده ها چهره را بر اساس قومیت دسته‌بندی کند، در این حالت تمامی افراد بر مبنای معیارهای و استانداردهای زیبایی در اروپا سنجیده نمی‌شوند. به گفته حسن: «شما می‌توانید سوگیری‌های ناشی از معیارها و استانداردهای زیبایی در اروپا را فقط با نمایش گذاشتن زیباترین چهره از خودتان، بهترین چهره از قوم‌تان، بهترین چهره از نژادتان دور بزنید.»

اما روی می‌گوید نگران است که این دسته‌بندی‌های نژادی به زیرساخت‌های فنی هم نفوذ کنند. «مشکل این است که مردم این کار را انجام می‌دهند و نظر ما اصلا مهم نیست، هیچ‌گونه نظارت و کنترلی بر آن‌ها نیست.»

او می‌گوید: «ساده بگویم من هیچ وقت یک سیستم AI سنجش زیبایی که نسبت به فرهنگ حساس باشد را ندیده‌ام.»

لزومی ندارد سیستم‌های توصیه‌گر را با هدف ارزیابی میزان جذابیت طراحی کنیم. هفته گذشته، BR، یک شبکه آلمانی، گزارش دارد که از هوش مصنوعی برای شناسایی کارکنانی استفاده شده که بر اساس ظاهر افراد، سوگیری دارند. در ماه مارس سال ۲۰۲۰، ByteDance، شرکت والد تیک‌تاک، به خاطر نامه‌ای به تعدلیل‌کنندگان محتوا که از آن‌ها خواسته بود ویدئوهایی با چهره‌های زشت، افراد  چاق، افرادی با نقص صورت، افرادی که فک جلوی‌شان دندان ندارد، افرادی مسنی که چین و چروک زیادی دارند و غیره را حذف کنند، مورد انتقاد گرفت. توئیتر نیز اخیراً یک ابزار بُرش خودکار برای تصاویری ارائه داده که افراد سفیدپوست را در اولویت قرار می‌دهند. زمانی که این ابزار را بر روی تصاویر باراک اوباما و میچ مک کانل استفاده کردند، این ابزار برش خودکار عکس باراک را از تصویر حذف می‌کرد.

کدام یک منصفانه‌تر عمل می‌کند؟

وقتی برای اولین بار از طریق تماس تصویری با بنیان‌گذاری Qoves یعنی شفیع حسن صحبت کردم، به من گفت: « من همیشه تصور می‌کردم افراد جذاب نژاد به خصوصی دارند.»

بنیان‌گذاری Qoves گفت، زمانی که کار خود را در سال ۲۰۱۹ آغاز کرد، دوستان و خانواده‌اش به آینده این کسب‌وکار خوش‌بین نبودند. اما به اعتقاد حسن کسب‌و‌کار او به افراد کمک می‌کند تا بهترینِ خود را ارائه دهند. او از فیلم گاتاکا (۱۹۹۷) الهام گرفت که در «آینده‌ای نه چندان دور» اتفاق می‌افتد، جایی که مهندسی ژنتیک تنها راه لقاح است. تبعیض ژنتیکی جامعه را تجزیه می‌کند، شخصیت اِتن هاوک، که تصور می‌شد فردی طبیعی و نرمال است، مجبور می‌شود هویت فردی که ژنتیک‌اش پذیرفته‌شده و مقبول بود را بدزدد تا بتواند به سیستم نزدیک شود.

اغلب این فیلم را یک فیلم پادآرمان‌شهر قلمداد می‌کنند اما به عقیده حسن این فیلم تأثیری عمیق بر جای گذاشته است.

منبع: هوشیو

 

 

@Aseman_Mag

ما را دنبال کنید