در عصری که هوش مصنوعی به ابزاری برای پیشرفت، رفاه و تسهیل زندگی بشر تبدیل شده، استفاده از آن برای نظارت بر پوشش افراد در خیابانها، سؤالات جدی در زمینه حریم خصوصی، آزادیهای فردی و سوءکاربردهای فناوری ایجاد کرده است. سامانه پیامک حجاب، که با بهرهگیری از دوربینهای شهری، فناوری تشخیص چهره و الگوریتمهای هوش مصنوعی، اقدام به شناسایی افراد و ارسال اخطارهای پیامکی به آنها میکند، بیش از آنکه نمادی از پیشرفت فناورانه باشد، نشانی از نهادینهسازی کنترل اجتماعی از بالا به پایین است
این رویکرد جدید در حوزه نظارت اجتماعی با استفاده از هوش مصنوعی، با استقبال برخی و انتقاد بسیاری از فعالان حوزه حقوق شهروندی، فناوری و جامعهشناسی مواجه شده است. در این مقاله قصد داریم با نگاهی دقیق و تخصصی، به بررسی ساختار، عملکرد، و پیامدهای این سامانه بپردازیم و ببینیم آیا هوش مصنوعی میتواند ابزار عدالت باشد یا نظارت بیحد؟
در پروژه استفاده از هوش مصنوعی برای تذکر حجاب، فرآیند شناسایی افراد، اصلیترین و حساسترین بخش است. این سیستم بدون حضور فیزیکی مأموران، بهصورت کاملاً خودکار و الگوریتممحور کار میکند. در ادامه مراحل دقیق را با جزئیات بررسی میکنیم:
دوربینهای شهری با قابلیت تصویربرداری HD و مادون قرمز (IR) در معابر عمومی، مراکز خرید، مترو، ایستگاههای BRT و اماکن پرتردد نصب شدهاند. این دوربینها بهصورت مداوم تصاویر را برای پردازش به سرور مرکزی ارسال میکنند.
الگوریتمهای پیشرفته بینایی ماشین (Computer Vision) از جمله:
در کنار یک دیتابیس ملی از تصاویر ثبتشده از کارت ملی، گذرنامه و سایر مدارک هویتی، برای شناسایی دقیق افراد بدون نیاز به تعامل انسانی استفاده میشوند.
پس از شناسایی، سیستم از طریق تطبیق چهره با شماره ملی، شماره سیمکارت و مالکیت آن را پیدا کرده و یک پیامک هشدار با فرمت رسمی ارسال میشود.
مثال واقعی پیامک:
این دوربینها با فناوریهای زیر تجهیز شدهاند:
در مرحله بعد، تصویر زنده وارد موتور تشخیص افراد میشود. الگوریتمهای مورد استفاده عبارتاند از:
این عملیات ظرف کمتر از 200 میلیثانیه انجام میشود.
بعد از شناسایی فرد، هوش مصنوعی با تحلیل تصویر بدن و نوع لباس، بررسی میکند که آیا حجاب از نظر قوانین جمهوری اسلامی رعایت شده یا خیر.
ابزارها و روشها:
این مرحله بیشترین حاشیه خطا را دارد، چرا که تحلیل لباس، رنگ پوست و نور محیط میتواند باعث تشخیص اشتباه شود.
سیستم با استفاده از پیشرفتهترین الگوریتمهای Face Recognition، هویت فرد را با دقت بالا مشخص میکند. ابزارهای مرسوم شامل:
این الگوریتمها به سیستم اجازه میدهند تا چهره فرد را حتی در حال حرکت، از کنار یا حتی با ماسک نیمهپوشانده، شناسایی کنند.
پس از استخراج ویژگی چهره، الگوریتم آن را با پایگاه دادههای زیر مقایسه میکند:
این تطبیق، مشخصات زیر را در خروجی میدهد:
درصورتیکه تطبیق موفق باشد، پیام هشدار به همان شماره ارسال میشود.
پس از احراز هویت، سامانه بهصورت خودکار یک پیامک با محتوای تذکر برای فرد ارسال میکند. محتوای پیامها ممکن است بسته به نهاد اجراکننده (پلیس امنیت، پلیس اماکن یا بسیج) متفاوت باشد، اما در قالب رسمی و بدون امکان پاسخگویی ارسال میشود.
همچنین بخوانید: لیست رسمی سامسونگ | این گوشیها بروزرسانی One UI 7 را نمیگیرند!
نمونه پیامک:
«در تاریخ ۱۴۰۳/۰۲/۲۸ پوشش شما در مکان عمومی با موازین قانونی حجاب همخوانی نداشت. لطفاً نسبت به رعایت آن اقدام فرمایید.»
هیچ سازوکار رسمی برای اعتراض به پیامکها، حذف سوابق یا دفاع در نظر گرفته نشده، که موجب انتقادات حقوقی و اجتماعی زیادی شده است.
هیچ متن قانونی مشخص، علنی و شفاف برای استفاده از این فناوری در اختیار عموم قرار نگرفته است. قوانین موجود مانند ماده ۶۳۸ قانون مجازات اسلامی درباره بدحجابی وجود دارند، اما استفاده از هوش مصنوعی برای کشف و تذکر بدون نظارت قضایی، مبنای مشخصی ندارد.
مطابق اصول قانون اساسی، بهویژه اصل ۳۶ و ۳۷، هیچکس مجرم تلقی نمیشود مگر بر اساس حکم دادگاه صالح. در این سیستم، افراد بدون اطلاع از جرم، بررسی و قضاوت میشوند.
حضور ناپیدای یک «چشم دیجیتال» در همه جا، باعث ایجاد نوعی ترس اجتماعی مزمن (Social Surveillance Anxiety) میشود. حتی افراد با پوشش کامل نیز ممکن است احساس کنند که تحت کنترل شدید هستند، که میتواند منجر به افزایش اضطراب و کاهش امنیت روانی عمومی شود.
این سیستم تقریباً بهصورت انحصاری، زنان را هدف قرار میدهد. مردان، صرفنظر از نوع پوشش یا حتی تخلفات دیگر، خارج از محدوده نظارت الگوریتمی قرار دارند، که نشاندهنده نابرابری جنسیتی در سیاستگذاری دیجیتال است.
پس از دریافت پیامکهای حجاب، بسیاری از شهروندان تصاویر پیامکها را در توییتر و اینستاگرام منتشر کردهاند. هشتگهایی مانند #حجاب_هوش_مصنوعی، #پیامک_حجاب، و #AI_Control بهطور گسترده استفاده شدهاند.
یکی از مهمترین چالشها در این سامانه، فقدان مکانیزم رسمی و شفاف برای اعتراض به پیامکهای صادرشده است. بسیاری از شهروندان گزارش دادهاند که بدون امکان دفاع یا بررسی مجدد، اخطارهایی دریافت کردهاند که ممکن است اشتباه بوده باشد. این مسئله در تضاد با اصول دادرسی عادلانه و حق دفاع از خود در قوانین اساسی و حقوق بشر است.
هوش مصنوعی هنوز مصون از خطا نیست. حتی در پیشرفتهترین کشورها، سیستمهای تشخیص چهره درصدی از خطا دارند (گاهی تا 10٪). استفاده از چنین فناوری حساسی در حوزهای اجتماعی و فرهنگی مانند حجاب، بدون نظارت انسانی و امکان اصلاح، میتواند به آسیبهای جدی منجر شود.
مثال: چهرههایی که بخشی از موهایشان بهصورت طبیعی مشخص است، یا افرادی که لباسهای روشن یا خاص پوشیدهاند، ممکن است به اشتباه بهعنوان «بدحجاب» شناسایی شوند.
استفاده از دوربینهای مداربسته برای تحلیل چهره و وضعیت پوشش، بدون رضایت مستقیم شهروندان، میتواند مصداقی از نقض حریم خصوصی در فضای عمومی باشد. این موضوع بهویژه در قوانین جهانی حمایت از دادهها (مانند GDPR در اتحادیه اروپا) بهصراحت ممنوع است، مگر با رضایت قبلی یا توجیه امنیتی موجه.
دریافت پیامک هشدار میتواند تأثیر روانی منفی زیادی بر افراد، خصوصاً زنان جوان، بگذارد. احساس نظارت دائم، ترس از خطای سیستم، و برچسبزنی اجتماعی میتواند به افزایش اضطراب، بیاعتمادی عمومی و کاهش تعاملات اجتماعی بینجامد.
در حال حاضر، اطلاعاتی از وجود یک مرجع بیطرف برای بازبینی عملکرد الگوریتمها، بررسی خطاهای انسانی و فنی، یا رسیدگی به شکایات مردمی در دسترس نیست. این موضوع میتواند منجر به سوءاستفاده از فناوری و تضعیف اعتماد عمومی به نهادهای حکومتی شود.
فناوری هوش مصنوعی میتواند ابزار بسیار مؤثری در بهبود زندگی باشد، اما زمانی که بدون در نظر گرفتن حقوق فردی، عدالت اجتماعی و خطاهای ذاتی تکنولوژی به کار گرفته شود، میتواند به ابزار نظارتی آسیبزا تبدیل شود.
پیشنهاد کارشناسان حقوق دیجیتال:
برای چنین سیستمهایی، باید سازوکار مشخص قانونی، شفافیت در عملکرد الگوریتم، دسترسی به پروندههای ثبتشده، و امکان اعتراض رسمی فراهم گردد.
در هیچ کشور توسعهیافتهای، سیستم تشخیص پوشش برای تذکر و مجازات عمومی زنان، با چنین مقیاسی وجود ندارد. چین تنها کشوری است که در برخی مناطق، از سیستمهای تشخیص چهره برای نظارت اجتماعی استفاده میکند، اما نه با تمرکز جنسیتی یا پوشش.
فرآیند شناسایی در سیستم پیامک حجاب، مبتنی بر یکی از پیچیدهترین ترکیبهای هوش مصنوعی، بینایی ماشین، بیومتریک و کلانداده در حوزه حکمرانی دیجیتال است. با این حال، عدم شفافیت قانونی، احتمال خطا، عدم وجود مکانیزم اعتراض و عدم تفکیک میان مالک سیمکارت و استفادهکننده نهایی، همچنان از نقاط ضعف کلیدی این سیستم محسوب میشوند.
شما میتوانید از طریق واتسآپ یا تماس تلفنی با همکاران ما در واحد پشتیبانی در ارتباط باشید و مشاوره لازم را دریافت نمایید.