عمومی

تیک تاک چقدر کارکنان خود را راضی نگه می‌دارد؟

تیم فنی
تیم فنی

تیک تاک چقدر کارکنان خود را راضی نگه می‌دارد؟

ماه گذشته ناظر تیک‌ تاک از این شرکت شکایت کرد. او ادعا کرد تیک تاک به‌حد کافی دربرابر آسیب‌های روانی از او حمایت نکرده. سال گذشته ناظر فیس بوک هم شکایت مشابهی کرده بود.

به‌نظر می‌رسد شاغل بودن در سمت ناظر شبکه اجتماعی مثل تیک تاک چندان هم ساده نیست. شاید هرگز فکر نکنیم زندگی ناظر شبکه‌های اجتماعی معروفی که شاید روزانه یا هفتگی از آنها استفاده می‌کنیم، چگونه است. اما مطرح شدن این شکایت‌ها نشان می‌دهد در معرض تصویرهای ناخوشایندی قرار دارند؛ تصویرهایی که گاه اثر منفی عمیقی بر روح و روان آنها می‌گذارد. در این نوشته از بلاگ «پیشگامان لوتوس» به پشت صحنه‌ی شبکه‌های اجتماعی معروف سر می‌زنیم.

وظیفه ناظر شبکه اجتماعی چیست؟

ناظر شبکه اجتماعی وظیفه‌ی مدیریت فعالیت‌ها و محتوای تولیدشده در فضای آن شبکه را به‌عهده دارد. به‌طور خلاصه، او کسی‌ست که تصمیم می‌گیرد اعضای شبکه اجتماعی چقدر قانون‌های مربوط به تولید محتوا و به‌اشتراک گذاشتن ویدیو را در پست و کامنت رعایت کرده‌اند.

ناظر مسوول مدیریت محتوایی‌ست که کاربران آپلود کرده‌اند. اوست که تصمیم می‌گیرد پست، کامنت،‌ توییت، عکس، ویدیو و میم‌هایی که کاربران با دیگران به اشتراک گذاشته‌اند، مطابق قانون‌های شبکه اجتماعی‌ست یا خیر.

او توهین و ناسزای کلامی، تولید محتوای توهین‌آمیز، محتوایی که باعث نفرت یا تبعیض شود و هر گونه محتوای نامناسب را حذف می‌کند. به این ترتیب، می‌بینیم که ناظر با همه‌ی این محتواهای ناخوشایند روبه‌روست و باید آنها را حذف کند.

شکایت ناظر فیس بوک

 از این‌جا به‌بعد مقاله، ممکن است با جمله‌هایی روبه‌رو شوید که حاوی خشونت باشند.

داستان از آن‌جایی آغاز شد که سال گذشته ارین اِلدِر (Erin Elder) به مدیر خود اطلاع داد بعد از دیدن صحنه‌های خشونت‌آمیز به کمک مشاور نیاز دارد. ارین با ویدیویی روبه‌رو شده بود که در آن چندین مرد به دختر نوجوانی تجاوز جنسی کرده بودند. او که پس از دیدن این ویدیو دچار مشکل شده بود، به مشاور نیاز داشت. اما مدیر ارین تا یک هفته پاسخی به درخواست او نداد. یک هفته بعد به او گفته شد می‌تواند هر سه ماه یک بار با مشاور صحبت کند. درحالی‌که به تصور ارین، ناظر شبکه اجتماعی به حمایت بسیار بیشتری نیاز دارد.

در آن زمان ارین تصمیم گرفت از فیس بوک که به‌تازگی شرکت مادر آن متاورس نامیده می‌شود، شکایت کند. شکایت او همچنین متوجه شرکت‌هایی می‌شد که ده‌ها هزار نیروی کار ناظر برای فیس‌ بوک تامین می‌کرد. او این موضوع را در شکایت خود مطرح کرد که این شرکت‌ها از ناظرانی که ۸ ساعت در روز با تصویرهای وحشناکی روبه‌رو هستند و وظیفه‌ی امن نگه داشتن شبکه‌های اجتماعی را برعهده دارند، حمایت می‌کنند.

به‌دنبال این شکایت فیس بوک موافقت کرد به هزاران نیروی کاری که از تروما رنج می‌بردند، ۵۲ میلیون دلار پرداخت کند. ترومای نیروی کار ناظر محتوا به‌دلیل مواجه با صحنه‌های خودکشی، قتل، کودک‌آزاری و محتوای مشابه آزاردهنده رخ می‌دهد.

سخنگوی فیس بوک در ایمیلی توضیح داد قدردان کارکنانی هستند که با کار مهم خود فیس بوک را به محیطی امن برای همه‌ی مردم تبدیل کرده‌اند. او گفت متعهد هستند در آینده بیشتر از این کارکنان حمایت کنند. 

شکایت ناظر تیک تاک

ماجرایی که در آذر ۱۴۰۰ بر سر زبان افتاد، شکایت ناظر تیک تاک از مدیران این شرکت بود. کندی فرازیر (Candy Frazier) ادعا کرد مدیران این پلتفرم شبکه اجتماعی از او در برابر آسیب‌های روحی و روانی در محیط کار حمایت کافی نکرده‌اند. کندی با ویدیوهایی در زمینه‌ی خشونت، تیراندازی در مدرسه، سقوط مرگ‌بار و حتی هم‌نوع‌خواری روبه‌رو شده بود. در دادخواست کندی ذکر شده بود که شاکی با مشکل خواب دست و پنجه نرم می‌کند. زمانی هم که به‌خواب می‌رود، کابوس‌های وحشتناک می‌بیند. 

کندی از کارکنان رسمی تیک تاک نیست و برای شرکت مادر چاینیز تک جاینت بیتدنس (Chinese tech-giant Bytedance کار می‌کند. بنابراین، از هر دو شرکت شکایت کرده است. 

مدیران ناظر تیک تاک در شیفت ۱۲ ساعته کار می‌کنند. در این مدت ۱ ساعت زمان صرف ناهار و دو زمان استراحت ۱۵ دقیقه‌ای دارند. باتوجه به حجم بالای کار، ناظر نمی‌تواند برای هر ویدیو بیشتر از ۲۵ ثانیه وقت بگذارد. از این‌رو، مجبور است همزمان ۳ تا ۱۰ ویدیو را بررسی کند. 

این در حالی‌ست که طبق قانون شرکت‌هایی مانند فیس‌ بوک، یوتوب و تیک‌ تاک، شیفت ناظر باید ۴ ساعت باشد و از حمایت روانی برخوردار شود. 

تیک تاک بدون اشاره به این پرونده اعلام کرد محیط کاری حمایت‌کننده‌ای برای همه‌ی کارکنان و کارکنان قراردادی تامین می‌کند. همچنین گفت دامنه‌ی خدمات سلامت خود را گسترده‌تر خواهد کرد تا ناظران از نظر ذهنی و احساسی حمایت بیشتری دریافت کنند.

سخن پایانی

در سال ۱۳۹۳ فیس بوک، گوگل، توییتر و چند شرکت دیگر دستورالعمل‌هایی تهیه کردند و از ناظران خواستند به‌طور ویژه روی کودک‌ آزاری تمرکز کنند و اجازه‌ی انتشار محتوای مربوط به آن را ندهند.

قرار بود استانداردهای مشترکی ارائه شود تا امکان تاب‌آوری در فضای کار مهیا شود. در این فضا کارکنان می‌توانند استراحت کنند و مدتی از فضای محتوای آزاردهنده دور بمانند. همچنین می‌توانند به‌مدت یک ساعت به کار دیگری مشغول شوند تا ذهن‌شان آزاد شود. مشاوره هم به‌آسانی دردسترس باشد.

یوتوب هم ادعا کرده ناظران دسترسی منظمی به مشاور دارند و بیشتر از ۵ ساعت مجبور به نظارت بر محتوا نیستند. توییتر مشاوره‌ی روزانه برای کارکنانش فراهم کرده و دستور داده شرکت‌هایی که به‌شکل برون‌سپاری با آنها همکاری دارند، از کارکنانی که شغل خود را ترک می‌کنند، حمایت کند. 

اما ناظران می‌گویند کسی از این دستور‌العمل‌ها پیروی نکرده و خیلی‌ها از آن آگاه هم نیستند. یکی از شرکت‌هایی که نیروی انسانی برای شرکت‌های بزرگ مبتنی بر فناوری معرفی می‌کند، اعلام کرده شغل ناظر محتوا می‌تواند باعث اختلالی به‌نام اضطراب پس از آسیب روانی یا Post-traumatic stress discoder (PTSD) شود. اما به‌نظر نمی‌رسد مدیران شبکه‌های اجتماعی به حد کافی به خطرهای روانی این سِمت شغلی توجه کافی نشان داده باشند. این درحالی‌ست که کارکنان در آمریکا شرایط بهتری دارند و در کشورهای دیگر وضعیت حمایتی ضعیف‌تر است.

یکی از ناظران پیشین فیلیپینی که اکنون در مرکز تلفن بیمه عمر در فیلیپین مشغول به کار شده، باور دارد کار نظارت محتوای پلتفرم‌های شبکه اجتماعی باید به ربات‌ها و ماشین‌ها سپرده شود. 

قصد انجام پروژه خاصی را دارید؟

اگر می‌خواهید وب‌سایتی منحصربه‌فرد، متناسب با نیازهای خاص خودتان داشته باشید، یا اگر گمان می‌کنید داشتن یک اپلیکیشن موبایلی اهداف کسب‌و‌کارتان را محقق می‌کند، یا اگر هنوز نمی‌دانید چه محصولی برای پیاده‌سازی ایده‌تان به کار می‌آید، با ما تماس بگیرید. شرکت نرم‌افزاری پیشگامان لوتوس با مشاوره و طراحی محصول ایده‌آل، شما را در مسیر رشد کسب‌و‌کارتان همراهی می‌کند.

با ما تماس بگیرید

مشاوره با ما