但她被要求完成的任務多種多樣,包括圖像標記、幫助智慧助手Alexa理解地區方言。
還有一系列她不理解的問題,比如:
- 為什麼有些工作(成果)被拒絶,花了很長時間的工人卻不被告知不符合標凖的原因?
- 為什麼有些帳戶突然被凍結,卻沒有任何通知,沒有或官方渠道來挑戰這種決定?
- 為什麼申請機構把一些項目的價格定得極低?
「土耳其機器人應該在我們的工作對象、內容、原因和地點等方面擁有更大的透明度:為什麼我們的工作(成果)被拒絶,這份工作到底在建設什麼,為什麼帳戶被凍結,不付費時數據去了哪裏,以及我們在為誰工作。」
Turkopticon是Mturk的工人擁有的最接近於工會的東西,這個組織正在努力讓工人們感覺不那麼隱形。
斯坦利表示:「Turkopticon是讓土耳其機器人變成組織的工具,讓他們就工作條件相互交流,並使工作變得更好。」
她正在籌集資金,以幫助該組織創建由工人操作的服務器,承包商可以在那裏討論工作條件。
亞馬遜回應BBC,它在2019年推出了一項功能,允許員工看到「下單者的活動水平、批准率和平均付款審核時間」。
它在一份聲明中說:「儘管工人的成果被下單者拒絶的整體率很低(小於1%),工人們也獲得了一組標凖,可以幫助他們確定想要的工作任務,包括下單者接受任務的歷史記錄。
「MTurk繼續幫助各種各樣的工人賺錢,並為他們社區的發展做出貢獻。」
YouTube禁令
賽飛·薩維奇(Saiph Savage)是西維吉尼亞大學人機交互實驗室的主任,她的研究發現,對於很多工人來說,工資可能低至每小時2美元,而且他們通常不知道需要在一個特定任務上工作多少個小時。
她在接受BBC採訪時說:「他們被告知,這份工作值5美元,但可能需要兩個小時。」
「僱主比工人擁有更大的權力,可以突然決定,否定工作(成果),而工人卻沒有辦法對此採取任何行動。」
她還表示,人們往往對這些平台上的員工是誰,以及他們的偏見是什麼知之甚少。
她引用了最近一項與YouTube有關的研究,該研究發現,演算法已經禁止了一些LGBTQ的內容。
「深究下去,並不是演算法有偏見,而是幕後的工作人員,他們在一個需要審查LGBTQ內容的國家工作。」
這種有關偏見的觀點是蒙特利爾人工智慧倫理研究所(Montreal AI Ethics Institute)的亞歷山大·羅耶(Alexandrine Royer)提出的,她寫道,迫切需要對這些員工進行更多監管。
她說:「數據工作者負責全球平台上的數據標籤和內容審核,非洲和其他地方的數據工作者做出的決策,反饋給了世界各地的互聯網用戶,並塑造了每天與之互動的演算法。」
「在數字經濟的陰影下工作,這些所謂的『幽靈工人』作為在線內容的仲裁者負有巨大責任。」
她還說,谷歌的搜索、推文、產品評論都依賴於這種「看不見的勞動力」。「我們早該監管並適當補償這些工人了。」