انگلیس و نژادپرستی از جنس بازداشت نامحدود مهاجران
تاریخ انتشار: ۲۲ آبان ۱۴۰۱ | کد خبر: ۳۶۴۰۱۸۳۲
به گزارش ایرنا، کمیته فرعی پیشگیری از شکنجه و سایر موارد ظالمانه، رفتار یا مجازات غیرانسانی یا تحقیرآمیز گزارش خود از آخرین بازدیدش در سپتامبر سال ۲۰۱۹ از انگلیس با اشاره به مواردی نظیر نگهداری برخی مهاجران در محیطی شبیه زندان و عدم اطلاع رسانی به افراد نگهداری شده در آن به مدت بیش از ۱۲ ماه، نسبت به موضوع بازداشت نامحدود مهاجران ابراز نگرانی کرد.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
این کمیته تاکید کرد، فقدان محدودیت زمانی ممکن است عملا منجر به بازداشت نامحدودشده و بر سلامت روانی مهاجران محروم از آزادی تأثیر بگذارد و خطرشکنجه و بدرفتاری را افزایش دهد.
این کمیته همچنین اعلام کرد، احتمال بازداشت افرادسیاهپوست، آسیایی و سایر گروه های قومیتی چهار برابر بیشتر از افراد گروههای قومی سفیدپوست بود. در این میان افراد سیاهپوست کارائیب نرخ بالایی از بازداشت را تجربه کردند.
از دیگر نمونه های رفتارهای ناصواب و نژادپرستانه در انگلیس میتوان به ورزش اشاره کرد؛ زمانی که سه بازیکن رنگین پوست تیم ملی انگلیس در بازی فینال جام ملتهای اروپا نتوانستند ضربات پنالتی را وارد دروازه ایتالیا کنند؛ نژادپرستان انگلیسی، خشمگین از باخت تیم محبوبشان در ورزشگاه ویمبلی لندن، شعارهایی نژادپرستانه علیه مارکوس رشفورد، جیدون سانچو و بوکایو ساکا، بازیکنان رنگین پوست این تیم در فضای مجازی منتشر کردند. حتی اکانتهای این سه بازیکن در اینستاگرام و توییتر نیز با انبوهی از تصاویر نژادپرستانه و نظرات کتبی همراه با فحاشی هولناک مورد حمله قرار گرفت.
نژادپرستی و رفتارهای تبعیض آمیز پلیس
شواهد و قرائن همواره موید رفتارهای تبعیض آمیز پلیس انگلیس علیه اقلیتهای نژادی، قومی و مذهبی بوده است. طبق داده های ارائه شده توسط پلیس انگلیس، مرگ آفریقایی تبارها بر اثر جراحات مربوط به درگیریهای درون زندانها یا در حین برخورد پلیس با اعتراضات خیابانی، دو برابر بیشتر از سایر شهروندان است. این موضوع بیانگر نژادپرستی نهادینه شده در نیروی پلیس و همچنین نظام درمانی این کشور است.
پژوهشی که روزنامه گاردین در آگوست ۲۰۲۲ در انگلستان و ولز انجام داده است، نشان می دهد که احتمال جریمه شدن اقلیتهای قومی، تقریباً دو برابر بیشتر از سفیدپوستان است. مصاحبه با افسران پلیسی که در خیابانها به اعمال مقررات پرداخته و با پژوهشگران دانشگاه لیورپول صحبت کرده اند نیز درستی این آمار را نتایج تایید می کند.
نتایج همچنین حاکی از آن است که نژادپرستی نهادینه بر عملکرد کسانی که در دوران همه گیری کرونا قدرت اجرایی داشته اند،؛ تاثیر گذار بوده است. به عنوان نمونه، افسران پلیس از قدرت خود برای جریمه کردن بی چون و چرای افرادی که قرنطینه را رعایت نکرده بودند، بهره گرفتند؛ چرا که به گفته برخی از آن ها، برخی از نژادها قوانین را رعایت نمی کنند. این درحالی است که به گفته یکی از نویسندگان این پژوهش، «هیچ شواهدی وجود ندارد که نشان دهد گروههای اقلیت قومی بیشتر از سایر گروه ها قوانین را زیر پا میگذارند و این تبعیض ناخواسته در فرآیندهای سازمان وجود داشته است».
در زمینه استفاده از زور و خشونت نیز پلیس انگلیس با میان سفیدپوستان و سایر رنگین پوستان تمایز و تبعیض قائل میشود. بر اساس گزارشها، پلیس لندن بیشترین استفاده از زور و شوکرهای الکتریکی را علیه سیاه پوستان انجام داده است. یک آمار مربوط به سال ۲۰۲۰ نشان می دهد که استفاده از اسلحه های الکتریکی علیه افراد سیاهپوست هشت برابر بیشتر از افراد سفیدپوست در سال ۲۰۱۹-۲۰۱۸ بوده است. علاوه بر این طبق آمار و ارقام بزرگسالان اقلیت های قومی بیشتر از بزرگسالان سفید پوست قربانی جرائم نژادپرستی هستند.
روزنامه گاردین در گزارشی دیگر در آگوست ۲۰۲۲ به تحقیقاتی اشاره کرده است که نشان می دهد تعصب و نژادپرستی در پلیس انگلیس موجب شده است تا اقلیت های قومی بیشتر از همتایان سفیدپوست خود برای نقض پروتکلهای بهداشتی رعایت کرونا جریمه دریافت کنند. این مطالعه مبتنی بر مصاحبه با افسرانی بوده است که در خیابانها بر پروتکل های بهداشتی مربوط به همه گیری کرونا نظارت داشته اند.
در سطح ملی، ارقام مربوط به انگلستان و ولز نشان می دهد که احتمال جریمه شدن اقلیتهای قومی تقریبا دو برابر بیشتر از سفیدپوستان است. یکی از پژوهشگران این مطالعه می گوید یافته ها نشان می دهد که نژادپرستی نظام مند احتمالا در برخورد با ناقضین پروتکل های بهداشتی در برخی موارد تاثیر گذاشته است.
این گزارش همچنین می گوید برخی از افسران به محققان گفته اند که اقلیت های قومی بیشتر در معرض دید و توقف پلیس هستند؛ چرا که در مناطق «فقیر» یا «مشکل آفرین» زندگی می کنند و حضور پلیس در این مناطق بیشتر است.
برچسبها انگلیس توییتر روزنامه گاردین تیم ملی انگلیس اینستاگرام نژادپرستی انگلستان حقوق بشرمنبع: ایرنا
کلیدواژه: انگلیس توییتر روزنامه گاردین تیم ملی انگلیس اینستاگرام نژادپرستی انگلستان حقوق بشر انگلیس توییتر روزنامه گاردین تیم ملی انگلیس اینستاگرام نژادپرستی انگلستان حقوق بشر برابر بیشتر نشان می دهد پلیس انگلیس قومی بیشتر
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.irna.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ایرنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۶۴۰۱۸۳۲ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
انسانها سوگیری یادگیری ماشینی را بیشتر از سوگیری خود تشخیص میدهند
یک پژوهش جدید نشان میدهد که افراد سوگیری تصمیمهای الگوریتم یادگیری ماشینی را بیشتر از سوگیری تصمیمهای خودشان تشخیص میدهند. شاید بتوان از این ویژگی برای اصلاح سوگیریهای انسان استفاده کرد.
به گزارش ایسنا، از برنامههایی که تماشا میکنیم تا افرادی که استخدام میکنیم، الگوریتمها به طور فزایندهای در زندگی روزمره ما ادغام میشوند و بیسروصدا بر تصمیمهایی که میگیریم اثر میگذارند.
به نقل از ادونسد ساینس نیوز، هسته الگوریتمها، مجموعهای از قوانین یا دستورالعملهاست که برای پردازش اطلاعات و به دست آوردن یک نتیجه خاص طراحی شدهاند اما از آنجا که الگوریتمها از الگوهای رفتاری انسان یاد میگیرند، میتوانند سوگیریهایی را که درون ما وجود دارند، منعکس یا حتی تقویت کنند. با وجود این، یک پژوهش جدید نشان میدهد که این ممکن است زیاد بد نباشد.
«کری موروج»(Carey Morewedge) استاد «دانشگاه بوستون»(Boston University) معتقد است که این بازتاب میتواند نقاط کور سوگیری ما را روشن کند و در اصلاح رفتار نقش داشته باشد. الگوریتمهای یادگیری ماشینی بسیار موفق هستند زیرا میتوانند بیطرفانه الگوها را در مجموعه دادهها پیدا کنند اما در عین حال، سوگیریهای انسانی را نیز در دادههای آموزشی خود لحاظ کنند.
هنگامی که این سوگیریها در الگوریتمها شناسایی میشوند، میتوانند به آشکارسازی سوگیریهای بلندمدت در سازمانها کمک کنند. به عنوان مثال، شرکت «آمازون»(Amazon) سوگیری جنسیتی را در شیوههای استخدام خود بررسی نکرده بود اما با آزمایش یک الگوریتم که رزومههای جدید را براساس شیوههای پیشین استخدام شرکت ارزیابی میکرد، به این موضوع پی برد.
موروج گفت: الگوریتمها میتوانند سوگیریهای انسانی را کدگذاری و تقویت کنند اما سوگیریهای ساختاری را نیز در جامعه ما نشان میدهند.
انسانها سوگیریهای خود را تشخیص نمیدهند
موروج و گروهش در پژوهش خود نشان دادند که افراد معمولا تمایل بیشتری را به تشخیص دادن و تصحیح کردن سوگیریهای موجود در تصمیمگیری الگوریتم در مقایسه با تصمیمگیری خودشان دارند. آنها باور دارند که با دانستن این موضوع ممکن است بتوان از الگوریتمها برای رسیدگی به سوگیریهای موجود در تصمیمگیریها استفاده کرد.
انسانها به دلیل پدیدهای به نام «نقطه کور سوگیری»، برای دیدن سوگیری خود تلاش زیادی نمیکنند و بیشتر متوجه سوگیری افراد دیگر هستند. دلیل این است که ما میتوانیم در فرآیندهای تصمیمگیری خود، سوگیری را توجیه کنیم یا برای آن بهانه بیاوریم. برای ناظری که هیچ اطلاعاتی درباره فرآیند فکری یا چگونگی تصمیمگیری ندارد، سوگیریها واضحتر و بهانهجویی دشوارتر است.
موروج و همکارانش در این پژوهش نشان دادند که حتی وقتی الگوریتمها براساس رفتارهای ما آموزش داده میشوند نیز این موضوع صادق است.
تشخیص دادن سوگیری در الگوریتم سادهتر است
پژوهشگران در یک مجموعه آزمایش، از شرکتکنندگان خواستند تا سرویس «ایربیانبی»(AirBnB) و رانندگان «لیفت»(Lyft) را براساس معیارهای تشخیصی مانند تعداد ستارهها، ارزیابیها و مدت زمان حضور داشتن کنار راننده رتبهبندی کنند.
پژوهشگران معیارهای غیرتشخیصی مانند تصویر یا نام را که هیچ ارتباطی با کار ندارند، دستکاری کردند. شرکتکنندگان دو بار رتبهبندی را انجام دادند و سپس، رتبهبندیهای آنها یا رتبهبندی الگوریتم آموزشدادهشده نشان داده شد.
گاهی اوقات رتبهبندی خود شرکتکنندگان به آنها نشان داده میشد اما به آنها گفته میشد که رتبهبندی الگوریتم است. در همه سناریوها، شرکتکنندگان در مقایسه با الگوریتمها سوگیری کمتری را در رتبهبندیهای خود مشاهده کردند.
موروج گفت: مردم وقتی معتقدند که رتبهبندیها توسط یک الگوریتم انجام شده است، تمایل بیشتری به سوگیری دارند. این در حالی است که ما در واقع الگوریتم را روی دادههای آنها آموزش میدهیم و رتبهبندی الگوریتم براساس آن دادهها صورت میگیرد.
وی افزود: این به این معنا نیست که مردم انواع بیشتری از ویژگیها را در الگوریتمها میبینند، بلکه چیزهایی را میبینند که برای خودشان تهدیدکنندهتر است. بیشتر مردم نمیخواهند از نژاد در رتبهبندیهای خود استفاده کنند یا میخواهند نژاد را در آن رتبهبندی نادیده بگیرند. بنابراین، این ایده که نژاد بر آن رتبهبندیها تأثیر گذاشته، تهدیدکننده است.
در نتیجه، از آنجا که سوگیری در یک الگوریتم به عنوان تصمیمگیری ناقص خود ما تلقی نمیشود، دیدن یا اعتراف کردن به وجود آن آسانتر است. به گفته موروج، این یافته دو روش را ارائه میدهد که الگوریتمها به واسطه آن میتوانند به انسان در کاهش سوگیری کمک کنند.
وی افزود: یک روش این است که تصمیمهای خود را جمعآوری کنید و الگوها را ببینید که به شما کمک میکنند تا سوگیری را تشخیص دهید اما هنوز موانعی بر سر راه توانایی ما برای تشخیص دادن سوگیریها وجود دارد. ما انگیزههایی را برای محافظت از خود داریم.
موروج و گروهش با پیروی از این منطق، آزمایش دیگری را انجام دادند تا ببینند آیا احتمال بیشتری وجود دارد که شرکتکنندگان به اصلاح سوگیری در رتبهبندیهای خود یا الگوریتم بپردازند. پس از مشاهده رتبهبندیها، به شرکتکنندگان فرصت داده شد تا سوگیری را اصلاح کنند و احتمال بیشتری وجود داشت که اصلاحاتی را در رتبهبندی الگوریتم انجام دهند. موروج گفت: از آنجا که افراد سوگیری را بیشتر در رتبهبندی الگوریتم میبینند تا خودشان، احتمال بیشتری وجود دارد که رتبهبندیهای الگوریتم را اصلاح کنند.
موروج اذعان داشت که این پژوهش هنوز در مراحل اولیه است اما او روش ملموسی را میبیند که از طریق آن میتوان یافتهها را در آموزش دادن الگوریتم برای جلوگیری از سوگیری در دنیای واقعی ادغام کرد. وی افزود: اولین گام این است که افراد سوگیریهای خود را بفهمند و آنها را ببینند. من فکر میکنم این الگوریتمها، روش سودمندی برای ارائه دادن یک دیدگاه واقعیتر به افراد درباره میزان سوگیری آنها هستند.
این پژوهش در مجله «PNAS» به چاپ رسید.
انتهای پیام