Xsolla: یک ثانیه ، 150 اخراج: در میان الگوریتم هایی که تصمیم می گیرند چه کسی باید شغل خود را از دست بدهد |  ایالات متحده آمریکا

Xsolla: یک ثانیه ، 150 اخراج: در میان الگوریتم هایی که تصمیم می گیرند چه کسی باید شغل خود را از دست بدهد | ایالات متحده آمریکا


الگوریتم احتمالاً شما را از کار می اندازد. به نظر می رسد یک دیستوپی فانتزی وحشتناک است ، اما در این یک سوم اول حادثه انگیز قرن 21 ، انتظار اکثر کارکنان این است: کار در اتومبیل بدون واسطه انسانی. بر اساس این پیش بینی ها ، شاید اکثر این کارگران چندین بار این چرخه فروپاشی خلاق را در حرفه خود پشت سر بگذارند. این پایان ایده کار برای زندگی است ، که تا پایان قرن 20 متداول بود.

اوت گذشته ، Xsolla ، یک شرکت نرم افزاری و خدمات تعاملی روسی مستقر در لس آنجلس ، محل کار آوانگارد خود را دوباره سازماندهی کرد ، که توجه رسانه های جهان را به خود جلب کرد. بدون اطلاع قبلی ، Xsolla تصمیم گرفت 150 نفر از 450 کارمند خود را از دفترهای پرم اخراج کند ، بر اساس حکم الگوریتم مربوط به بهره وری که کارگران را “بدون پردازش و غیرمولد” می داند.

این نه همه گیر کروناویروس است و نه “بررسی ساختاری”. این بار ، دلیل کاهش گسترده محاسبه سرد برنامه هوش مصنوعی بود که از “داده های بزرگ” تغذیه می شد.

Xsolla یکی از نمونه های بسیاری از یک شرکت مدرن و مخرب است که از هوش مصنوعی در فرایند تصمیم گیری استفاده می کند. تازگی واقعی این است که عملکردهای دستگاه در این مورد کمتر از مدیرعامل و بخشهای مدیریت منابع انسانی و استعدادها نیست.

در The Modern Times (1936) ، چارلز چاپلین درباره خطرات خودروها در محل کار هشدار داد.گتی ایماژ

این ماشینها روزی جایگزین کارگران انسانی خواهند شد-چیزی که لودیت های انگلیسی قرن 19 معتقد بودند ، و چارلی چاپلین در فیلم خود در سال 1936 این را به طور فصیح بیان کرد عصر جدیدبه به طور غیر منتظره ، اتومبیل ها رئیس ما خواهند بود.

یک سابقه شگفت انگیز وجود دارد: آمازون ، مادر همه شرکت های هک ، توجه را به خود جلب کرده است بلومبرگ اخراج افراد بر اساس معیارهای فناوری اطلاعات استفان نورماندین ، ​​یکی از کارگران اخراج شده ، اوایل امسال مصاحبه کرد و روزنامه او را نشان این روند سرد و غیرانسانی کرد.

نورماندین ، ​​جانباز 63 ساله ارتش آمریکا از فینیکس ، آریزونا ، چهار سال راننده تحویل جف بزوس بود و نامه را بدون بسته بندی شکر از طریق ایمیل دریافت کرد. معلق. الگوریتم نظارت روزانه او را برای کار نامناسب می دانست. او با مسلسل شلیک شد.

در آن بلومبرگ در این مصاحبه ، نورماندی خود را “نوعی مدرسه قدیمی” توصیف می کند و به هر شغلی “110٪” می دهد. او از دست دادن شغل خود را تحقیر شخصی تلقی کرد و گفت که این کار غیرقابل توجیه است. هیچ کس برای توضیح معیارهایی که هوش مصنوعی تعهد و شایستگی او را به چالش می کشد ، با او صحبت نکرد. او می گوید: “من یک شیفت 12 ساعته در یک مرکز پذیرایی از پناهندگان ویتنامی در آرکانزاس کار کردم.” “من بارها و بارها ثابت کرده ام که فردی منظم و مسئول هستم. من سزاوار اخراج بدون در نظر گرفتن وضعیت خود یا بدون توضیح نیستم. ” از نظر او ، او به دلیل سن خود اخراج شد یا سلامت جسمی و روحی او در نظر گرفته نشد ، اما تلاش های او برای اثبات این امر به آمازون بی نتیجه بود.

اسپنسر سوپر ، نویسنده مقاله بلومبرگ ، گفت که نرماندی نتیجه یک “جنگ شکست خورده” و “سوء تفاهم بد” علیه این خودرو بوده است.

سوپر می گوید: “مردانی مانند او همچنان به فرهنگ سخت کوشی و اخلاق کار اعتقاد دارند ، در حالی که شرکت هایی مانند آمازون مدل های خود را بر اساس خودکارسازی فرایندهای تولید و برنامه های کاری می سازند که عملاً عامل انسانی را حذف می کند.”

جف بزوس ، بنیانگذار آمازون و Blue Origin.
جف بزوس ، بنیانگذار آمازون و Blue Origin.جیم واتسون (خبرگزاری فرانسه)

بزوس در مصاحبه با CNBC گفت که معتقد است تنها تصمیمات تجاری که باید در دست مردم گذاشته شود “تصمیمات استراتژیک” است. بقیه ، تصمیمات “روزمره” ، مهم نیست چقدر مهم است ، او ترجیح می دهد به الگوریتم های هوش مصنوعی روی بیاورد زیرا آنها “با در نظر گرفتن تمام اطلاعات مربوطه بدون دخالت احساسی” کار می کنند. برای مدیرعامل آمازون ، “هوش مصنوعی فرایندها را بهینه می کند و در میان مدت و بلند مدت بیشتر از آنچه که حذف می کند ، ایجاد شغل می کند.” از نظر انسانی ، تراژدی ها ، مانند فاجعه های نرماندی ، چیزی بیش از آسیب جانبی یک انقلاب فوری نیست.

برای فابیان نوادو ، کارشناس حقوق کار در اتحادیه روزنامه نگاران کاتالان ، “این برای شما شرم آور است که با الگوریتمی که معیارهای کلی را در نظر می گیرد و شرایط شخصی را در نظر نمی گیرد استعفا دهید. از نظر اخلاقی شرم آور است. مهربانی.”

با این حال ، نوادو معتقد نیست که چنین حوادثی فقط در بازارهای کار ضعیف تنظیم می شود ، مانند روسیه یا ایالات متحده. در مقابل ، در اسپانیا ، برخلاف تصور عمومی ، اخراج رایگان است. دلایل اخراج باید ذکر شود و در صورت عدم توافق ، دادگاه تصمیم می گیرد که آیا دلایل قانع کننده هستند یا خیر. ” با این حال ، کاملاً قانونی است که شرکت ها هنگام نظارت بر فعالیت داده های کارکنان خود از هوش مصنوعی برای نظارت بر فعالیت های آنها استفاده کنند. نوادو می گوید: “در هر صورت ، تیرانداز همیشه کارفرما ، شخص یا گروهی از آنها است. اما ماشین می تواند سلاحی باشد که برای توجیه اخراج مورد استفاده قرار می گیرد. در واقع ، اغلب این اتفاق می افتد.”

اگر همه چیز خوب پیش برود ، داور در این مورد تصمیم می گیرد ، یک ابزار بحث برانگیز که باید انقلابی در عدالت ورزشی ایجاد کند ، مانند توصیه های سیستم VAR در فوتبال تا حدودی حرفه ای. نوادو می گوید ، تحت هیچ شرایطی ، “نه کارفرمایان و نه منابع انسانی مسئولیت اخراج را بر عهده نمی گیرند ، خود را در پشت الگوریتم ها و دیگر نوآوری های تکنولوژیکی پنهان نمی کنند و روابط انسانی را بیشتر انسانی نمی کنند.” در صورت تداوم این روند ، نوادو پیش بینی “آینده بسیار تاریک” برای بخش های منابع انسانی را دارد.

وی می افزاید: اگر ایده ترک مدیریت استعدادها (قرارداد ، استخدام و اخراج ، افزایش حقوق ، مراحل انضباطی ، پاداش ها و غیره فقط به منظور ادار resources منابع انسانی نیست). »در جهان از کارآفرینان نوآور ، فن آوری مدیریت مدرن و نیروی کار قابل تعویض ، سرپرست غیر ضروری می شود.

فرانک پاسکواله ، استاد دانشکده حقوق بروکلین در نیویورک ، در کتاب خود با عنوان “قوانین جدید روباتیک” به این سوالات پرداخته است. به گفته این روشنفکر ، که خود را “اومانیست با شایستگی تکنولوژیکی” توصیف می کند ، هوش مصنوعی هرگز نباید جایگزین تجربه و توانایی تفکر فرد در “جایی که معنای اخلاقی مشخصی دارد” شود. به عبارت دیگر ، هرگز نباید اجازه داد خودرویی تصمیم بگیرد که به چه کسی شلیک می شود ، چه کسی می دوید یا چه کسی اخراج می شود ، زیرا براساس معیارهای کارایی است. چنین تصمیماتی را نمی توان به صورت خودکار و از فرایند “بازتاب مسئولانه” ، که یک ابزار منحصر به فرد انسانی است ، جدا کرد. از نظر پاسکواله ، “رئیس دیجیتال” همیشه مستبد است زیرا او مردم را به سادگی به ابزار تبدیل می کند و از موجودیت آزاد و هوشمند خود صرف نظر می کند.

بر اساس سند کار اتحادیه کارگری اسپانیا UGT ، یک شبکه ایمنی در برابر استفاده از الگوریتم ها برای اخراج کارگران روابط الگوریتمی در روابط کار، باید در قالب مقررات روشن باشد که مستلزم شفافیت در استفاده از معیارهای هوش مصنوعی باشد. خوزه وارلا ، سرپرست دیجیتال سازی UGT می گوید: “اصل پیشگیری باید اعمال شود.” زیرا الگوریتم ها ، مانند هر محصول دیگری از ذهن انسان ، می توانند اشتباه کنند. علاوه بر این ، آنها در نظر نمی گیرند که آیا تصمیمات آنها ممکن است تأثیر منفی بر “امنیت مردم یا حقوق اساسی” داشته باشد. به عبارت دیگر ، اگر قرار است با یک الگوریتم شکست بخوریم ، ابتدا باید از او بخواهیم که بداند در حال انجام چه کاری است.

ارسال نظر

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *