AI 的剝削:肯尼亞工人訓練 ChatGPT,看大量有害內容心理受傷
1 月 18 日,美國《時代》雜志發(fā)布調查報道稱,為了降低 ChatGPT 的危害性,其開發(fā)公司 OpenAI 以每小時不到 2 美元的價格雇傭肯尼亞工人打標簽。
這項工作對 OpenAI 至關重要。ChatGPT 所依賴的 GPT 大型語言模型雖然已展示出令人印象深刻的文本能力,但目前的 GPT-3 還存在很多問題,總是脫口而出暴力、性別歧視和種族主義言論。
為了建立安全系統(tǒng)以控制這種危害,OpenAI 借鑒了 Facebook 等社交媒體的做法。通過給人工智能提供有關暴力、仇恨言論和性虐待的例子,讓檢測器就可以學會檢測言論危害,再將檢測器內置到 ChatGPT 中,就可以在仇恨言論到達用戶之前將其過濾掉,還可以幫助從人工智能的訓練數(shù)據(jù)集中清除有害文本。
這一切,是通過肯尼亞工人閱讀大量仇恨言論并打上數(shù)據(jù)標簽實現(xiàn)的,其中一些員工表示自己已經(jīng)出現(xiàn)心理問題。這些數(shù)據(jù)標簽工人的工作條件揭示了科技圖景中的黑暗部分:雖然人工智能很有魅力,但它往往依賴于隱藏的人力勞動,具有破壞性和剝削性。
1 月 18 日,美國《時代》雜志發(fā)布調查報道稱,為了降低 ChatGPT 的危害性,其開發(fā)公司 OpenAI 以每小時不到 2 美元的價格雇傭肯尼亞工人打標簽。
這項工作對 OpenAI 至關重要。ChatGPT 所依賴的 GPT 大型語言模型雖然已展示出令人印象深刻的文本能力,但目前的 GPT-3 還存在很多問題,總是脫口而出暴力、性別歧視和種族主義言論。
為了建立安全系統(tǒng)以控制這種危害,OpenAI 借鑒了 Facebook 等社交媒體的做法。通過給人工智能提供有關暴力、仇恨言論和性虐待的例子,讓檢測器就可以學會檢測言論危害,再將檢測器內置到 ChatGPT 中,就可以在仇恨言論到達用戶之前將其過濾掉,還可以幫助從人工智能的訓練數(shù)據(jù)集中清除有害文本。
這一切,是通過肯尼亞工人閱讀大量仇恨言論并打上數(shù)據(jù)標簽實現(xiàn)的,其中一些員工表示自己已經(jīng)出現(xiàn)心理問題。這些數(shù)據(jù)標簽工人的工作條件揭示了科技圖景中的黑暗部分:雖然人工智能很有魅力,但它往往依賴于隱藏的人力勞動,具有破壞性和剝削性。