Web Analytics Made Easy - Statcounter
به نقل از «ایرنا»
2024-05-04@00:20:19 GMT

انگلیس و نژادپرستی از جنس بازداشت نامحدود مهاجران

تاریخ انتشار: ۲۲ آبان ۱۴۰۱ | کد خبر: ۳۶۴۰۱۸۳۲

انگلیس و نژادپرستی از جنس بازداشت نامحدود مهاجران

به گزارش ایرنا، کمیته فرعی پیشگیری از شکنجه و سایر موارد ظالمانه، رفتار یا مجازات غیرانسانی یا تحقیرآمیز گزارش خود از آخرین بازدیدش در سپتامبر سال ۲۰۱۹ از انگلیس با اشاره به مواردی نظیر نگهداری برخی مهاجران در محیطی شبیه زندان و عدم اطلاع رسانی به افراد نگهداری شده در آن به مدت بیش از ۱۲ ماه، نسبت به موضوع بازداشت نامحدود مهاجران ابراز نگرانی کرد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

این کمیته تاکید کرد، فقدان محدودیت زمانی ممکن است عملا منجر به بازداشت نامحدودشده و بر سلامت روانی مهاجران محروم از آزادی تأثیر بگذارد و خطرشکنجه و بدرفتاری را افزایش دهد.

این کمیته همچنین اعلام کرد، احتمال بازداشت افرادسیاهپوست، آسیایی و سایر گروه های قومیتی چهار برابر بیشتر از افراد گروههای قومی سفیدپوست بود. در این میان افراد سیاهپوست کارائیب نرخ بالایی از بازداشت را تجربه کردند.

از دیگر نمونه های رفتارهای ناصواب و نژادپرستانه در انگلیس می‌توان به ورزش اشاره کرد؛ زمانی که سه بازیکن رنگین پوست تیم ملی انگلیس در بازی فینال جام ملت‌های اروپا نتوانستند ضربات پنالتی را وارد دروازه ایتالیا کنند؛ نژادپرستان انگلیسی، خشمگین از باخت تیم محبوبشان در ورزشگاه ویمبلی لندن، شعارهایی نژادپرستانه علیه مارکوس رشفورد، جیدون سانچو و بوکایو ساکا، بازیکنان رنگین پوست این تیم در فضای مجازی منتشر کردند. حتی اکانتهای این سه بازیکن در اینستاگرام و توییتر نیز با انبوهی از تصاویر نژادپرستانه و نظرات کتبی همراه با فحاشی هولناک مورد حمله قرار گرفت.

نژادپرستی و رفتارهای تبعیض آمیز پلیس

شواهد و قرائن همواره موید رفتارهای تبعیض آمیز پلیس انگلیس علیه اقلیت‌های نژادی، قومی و مذهبی بوده است. طبق داده های ارائه شده توسط پلیس انگلیس، مرگ آفریقایی تبارها بر اثر جراحات مربوط به درگیریهای درون زندانها یا در حین برخورد پلیس با اعتراضات خیابانی، دو برابر بیشتر از سایر شهروندان است. این موضوع بیانگر نژادپرستی نهادینه شده در نیروی پلیس و همچنین نظام درمانی این کشور است.

پژوهشی که روزنامه گاردین در آگوست ۲۰۲۲ در انگلستان و ولز انجام داده است، نشان می دهد که احتمال جریمه شدن اقلیتهای قومی، تقریباً دو برابر بیشتر از سفیدپوستان است. مصاحبه با افسران پلیسی که در خیابانها به اعمال مقررات پرداخته و با پژوهشگران دانشگاه لیورپول صحبت کرده اند نیز درستی این آمار را نتایج تایید می کند.

نتایج همچنین حاکی از آن است که نژادپرستی نهادینه بر عملکرد کسانی که در دوران همه گیری کرونا قدرت اجرایی داشته اند،؛ تاثیر گذار بوده است. به عنوان نمونه، افسران پلیس از قدرت خود برای جریمه کردن بی چون و چرای افرادی که قرنطینه را رعایت نکرده بودند، بهره گرفتند؛ چرا که به گفته برخی از آن ها، برخی از نژادها قوانین را رعایت نمی کنند. این درحالی است که به گفته یکی از نویسندگان این پژوهش، «هیچ شواهدی وجود ندارد که نشان دهد گروههای اقلیت قومی بیشتر از سایر گروه ها قوانین را زیر پا میگذارند و این تبعیض ناخواسته در فرآیندهای سازمان وجود داشته است».

در زمینه استفاده از زور و خشونت نیز پلیس انگلیس با میان سفیدپوستان و سایر رنگین پوستان تمایز و تبعیض قائل میشود. بر اساس گزارشها، پلیس لندن بیشترین استفاده از زور و شوکرهای الکتریکی را علیه سیاه پوستان انجام داده است. یک آمار مربوط به سال ۲۰۲۰ نشان می دهد که استفاده از اسلحه های الکتریکی علیه افراد سیاهپوست هشت برابر بیشتر از افراد سفیدپوست در سال ۲۰۱۹-۲۰۱۸ بوده است. علاوه بر این طبق آمار و ارقام بزرگسالان اقلیت های قومی بیشتر از بزرگسالان سفید پوست قربانی جرائم نژادپرستی هستند.

روزنامه گاردین در گزارشی دیگر در آگوست ۲۰۲۲ به تحقیقاتی اشاره کرده است که نشان می دهد تعصب و نژادپرستی در پلیس انگلیس موجب شده است تا اقلیت های قومی بیشتر از همتایان سفیدپوست خود برای نقض پروتکل‌های بهداشتی رعایت کرونا جریمه دریافت کنند. این مطالعه مبتنی بر مصاحبه با افسرانی بوده است که در خیابانها بر پروتکل های بهداشتی مربوط به همه گیری کرونا نظارت داشته اند.

در سطح ملی، ارقام مربوط به انگلستان و ولز نشان می دهد که احتمال جریمه شدن اقلیتهای قومی تقریبا دو برابر بیشتر از سفیدپوستان است. یکی از پژوهشگران این مطالعه می گوید یافته ها نشان می دهد که نژادپرستی نظام مند احتمالا در برخورد با ناقضین پروتکل های بهداشتی در برخی موارد تاثیر گذاشته است.

این گزارش همچنین می گوید برخی از افسران به محققان گفته اند که اقلیت های قومی بیشتر در معرض دید و توقف پلیس هستند؛ چرا که در مناطق «فقیر» یا «مشکل آفرین» زندگی می کنند و حضور پلیس در این مناطق بیشتر است.

برچسب‌ها انگلیس توییتر روزنامه گاردین تیم ملی انگلیس اینستاگرام نژادپرستی انگلستان حقوق بشر

منبع: ایرنا

کلیدواژه: انگلیس توییتر روزنامه گاردین تیم ملی انگلیس اینستاگرام نژادپرستی انگلستان حقوق بشر انگلیس توییتر روزنامه گاردین تیم ملی انگلیس اینستاگرام نژادپرستی انگلستان حقوق بشر برابر بیشتر نشان می دهد پلیس انگلیس قومی بیشتر

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.irna.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «ایرنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۶۴۰۱۸۳۲ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

انسان‌ها سوگیری یادگیری ماشینی را بیشتر از سوگیری خود تشخیص می‌دهند

یک پژوهش جدید نشان می‌دهد که افراد سوگیری تصمیم‌های الگوریتم‌ یادگیری ماشینی را بیشتر از سوگیری تصمیم‌های خودشان تشخیص می‌دهند. شاید بتوان از این ویژگی برای اصلاح سوگیری‌های انسان استفاده کرد.

به گزارش ایسنا، از برنامه‌هایی که تماشا می‌کنیم تا افرادی که استخدام می‌کنیم، الگوریتم‌ها به طور فزاینده‌ای در زندگی روزمره ما ادغام می‌شوند و بی‌سروصدا بر تصمیم‌هایی که می‌گیریم اثر می‌گذارند.

به نقل از ادونسد ساینس نیوز، هسته الگوریتم‌ها، مجموعه‌ای از قوانین یا دستورالعمل‌هاست که برای پردازش اطلاعات و به دست آوردن یک نتیجه خاص طراحی شده‌اند اما از آنجا که الگوریتم‌ها از الگوهای رفتاری انسان یاد می‌گیرند، می‌توانند سوگیری‌هایی را که درون ما وجود دارند، منعکس یا حتی تقویت کنند. با وجود این، یک پژوهش جدید نشان می‌دهد که این ممکن است زیاد بد نباشد.

«کری موروج»(Carey Morewedge) استاد «دانشگاه بوستون»(Boston University) معتقد است که این بازتاب می‌تواند نقاط کور سوگیری ما را روشن کند و در اصلاح رفتار نقش داشته باشد. الگوریتم‌های یادگیری ماشینی بسیار موفق هستند زیرا می‌توانند بی‌طرفانه الگوها را در مجموعه داده‌ها پیدا کنند اما در عین حال، سوگیری‌های انسانی را نیز در داده‌های آموزشی خود لحاظ کنند.

هنگامی که این سوگیری‌ها در الگوریتم‌ها شناسایی می‌شوند، می‌توانند به آشکارسازی سوگیری‌های بلندمدت در سازمان‌ها کمک کنند. به عنوان مثال، شرکت «آمازون»(Amazon) سوگیری جنسیتی را در شیوه‌های استخدام خود بررسی نکرده بود اما با آزمایش یک الگوریتم که رزومه‌های جدید را براساس شیوه‌های پیشین استخدام شرکت ارزیابی می‌کرد، به این موضوع پی برد.

موروج گفت: الگوریتم‌ها می‌توانند سوگیری‌های انسانی را کدگذاری و تقویت کنند اما سوگیری‌های ساختاری را نیز در جامعه ما نشان می‌دهند.

انسان‌ها سوگیری‌های خود را تشخیص نمی‌دهند

موروج و گروهش در پژوهش خود نشان دادند که افراد معمولا تمایل بیشتری را به تشخیص دادن و تصحیح کردن سوگیری‌های موجود در تصمیم‌گیری الگوریتم در مقایسه با تصمیم‌گیری خودشان دارند. آنها باور دارند که با دانستن این موضوع ممکن است بتوان از الگوریتم‌ها برای رسیدگی به سوگیری‌های موجود در تصمیم‌گیری‌ها استفاده کرد.

انسان‌ها به دلیل پدیده‌ای به نام «نقطه کور سوگیری»، برای دیدن سوگیری خود تلاش زیادی نمی‌کنند و بیشتر متوجه سوگیری افراد دیگر هستند. دلیل این است که ما می‌توانیم در فرآیندهای تصمیم‌گیری خود، سوگیری را توجیه کنیم یا برای آن بهانه بیاوریم. برای ناظری که هیچ اطلاعاتی درباره فرآیند فکری یا چگونگی تصمیم‌گیری ندارد، سوگیری‌ها واضح‌تر و بهانه‌جویی دشوارتر است.

موروج و همکارانش در این پژوهش نشان دادند که حتی وقتی الگوریتم‌ها براساس رفتارهای ما آموزش داده می‌شوند نیز این موضوع صادق است.

تشخیص دادن سوگیری در الگوریتم ساده‌تر است

پژوهشگران در یک مجموعه آزمایش، از شرکت‌کنندگان خواستند تا سرویس «ایربی‌ان‌بی»(AirBnB) و رانندگان «لیفت»(Lyft) را براساس معیارهای تشخیصی مانند تعداد ستاره‌ها، ارزیابی‌ها و مدت زمان حضور داشتن کنار راننده رتبه‌بندی کنند.

پژوهشگران معیارهای غیرتشخیصی مانند تصویر یا نام را که هیچ ارتباطی با کار ندارند، دستکاری کردند. شرکت‌کنندگان دو بار رتبه‌بندی را انجام دادند و سپس، رتبه‌بندی‌های آنها یا رتبه‌بندی الگوریتم آموزش‌داده‌شده نشان داده شد.

گاهی اوقات رتبه‌بندی خود شرکت‌کنندگان به آنها نشان داده می‌شد اما به آنها گفته می‌شد که رتبه‌بندی الگوریتم است. در همه سناریوها، شرکت‌کنندگان در مقایسه با الگوریتم‌ها سوگیری کمتری را در رتبه‌بندی‌های خود مشاهده کردند.

موروج گفت: مردم وقتی معتقدند که رتبه‌بندی‌ها توسط یک الگوریتم انجام شده است، تمایل بیشتری به سوگیری دارند. این در حالی است که ما در واقع الگوریتم را روی داده‌های آنها آموزش می‌دهیم و رتبه‌بندی الگوریتم براساس آن داده‌ها صورت می‌گیرد.

وی افزود: این به این معنا نیست که مردم انواع بیشتری از ویژگی‌ها را در الگوریتم‌ها می‌بینند، بلکه چیزهایی را می‌بینند که برای خودشان تهدیدکننده‌تر است. بیشتر مردم نمی‌خواهند از نژاد در رتبه‌بندی‌های خود استفاده کنند یا می‌خواهند نژاد را در آن رتبه‌بندی نادیده بگیرند. بنابراین، این ایده که نژاد بر آن رتبه‌بندی‌ها تأثیر گذاشته، تهدیدکننده است.

در نتیجه، از آنجا که سوگیری در یک الگوریتم به عنوان تصمیم‌گیری ناقص خود ما تلقی نمی‌شود، دیدن یا اعتراف کردن به وجود آن آسان‌تر است. به گفته موروج، این یافته دو روش را ارائه می‌دهد که الگوریتم‌ها به واسطه آن می‌توانند به انسان در کاهش سوگیری کمک کنند.

وی افزود: یک روش این است که تصمیم‌های خود را جمع‌آوری کنید و الگوها را ببینید که به شما کمک می‌کنند تا سوگیری را تشخیص دهید اما هنوز موانعی بر سر راه توانایی ما برای تشخیص دادن سوگیری‌ها وجود دارد. ما انگیزه‌هایی را برای محافظت از خود داریم.

موروج و گروهش با پیروی از این منطق، آزمایش دیگری را انجام دادند تا ببینند آیا احتمال بیشتری وجود دارد که شرکت‌کنندگان به اصلاح سوگیری در رتبه‌بندی‌های خود یا الگوریتم بپردازند. پس از مشاهده رتبه‌بندی‌ها، به شرکت‌کنندگان فرصت داده شد تا سوگیری را اصلاح کنند و احتمال بیشتری وجود داشت که اصلاحاتی را در رتبه‌بندی الگوریتم انجام دهند. موروج گفت: از آنجا که افراد سوگیری را بیشتر در رتبه‌بندی الگوریتم می‌بینند تا خودشان، احتمال بیشتری وجود دارد که رتبه‌بندی‌های الگوریتم را اصلاح کنند.

موروج اذعان داشت که این پژوهش هنوز در مراحل اولیه است اما او روش ملموسی را می‌بیند که از طریق آن می‌توان یافته‌ها را در آموزش دادن الگوریتم برای جلوگیری از سوگیری در دنیای واقعی ادغام کرد. وی افزود: اولین گام این است که افراد سوگیری‌های خود را بفهمند و آنها را ببینند. من فکر می‌کنم این الگوریتم‌ها، روش سودمندی برای ارائه دادن یک دیدگاه واقعی‌تر به افراد درباره میزان سوگیری آنها هستند.

این پژوهش در مجله «PNAS» به چاپ رسید.

انتهای پیام

دیگر خبرها

  • وزیر دفاع انگلیس به تحریم ایران واکنش نشان داد
  • بازداشت ۴۵ نفر به دلیل اعتراض به قانون ضد مهاجرتی سوناک
  • حقایق جالب درباره چپ دست‌ها که احتمالا نمی دانستید
  • حقایق جالب درباره چپ دست‌ها
  • افزایش شمار پناهجویان بی‌خانمان در انگلیس
  • برچیدن کمپ‌های پناهجویان در آستانه بازی‌های المپیک پاریس
  • فیلم| تایمز انگلیس: به‌زودی حکم بازداشت نتانیاهو صادر می شود
  • تشدید مناقشات بین ایرلند و انگلیس بر سر مسئله مهاجران
  • گنجی که فقط کچل‌ها دارند
  • انسان‌ها سوگیری یادگیری ماشینی را بیشتر از سوگیری خود تشخیص می‌دهند