人工智慧本應提高生產力,但一份新報告顯示,「工作懈怠」卻使情況變得更糟。
如果你用過人工智慧工具,你就會知道它們並不總是準確的。事實上,一項新的研究強調了這一點 ChatGPT 的錯誤率為 25%儘管一些科技公司的執行長認為人工智慧將導致大規模失業,但目前看來,人工智慧只會阻礙我們的發展。

各行各業的公司都在部署人工智慧,但其收益卻不盡人意。事實證明,這些工具產生的許多東西只是一些毫無用處的垃圾,專家稱之為「工作垃圾」。這可不是“AI垃圾”,而是你在瀏覽社群媒體時看到的那些由AI產生的垃圾內容。
「工傷賠償」到底是什麼?

首次報道 雜誌 HBR، 「worklop」一詞指的是大量人工智慧產生的、最終價值極低的內容。我們得到的不是紮實的報告和專業的演示文稿,而是淺薄的報告、不完整的文檔以及缺乏深刻見解或包含需要人工幹預才能修復的錯誤等公式化內容。
簡單來說,當 AI 提供大量但品質較低的內容時就會發生這種情況,最終導致工作量增加。
為什麼會發生這種情況?我們該如何避免?

《哈佛商業評論》的作者認為,這是因為錯誤的激勵機製造成的。公司依賴人工智慧工具來加快工作速度,而不一定是為了提高品質。員工依賴人工智慧提供支持,即使其產出的價值並不高。
由於人工智慧內容製作成本非常低,因此組織可以容忍「足夠好」的輸出——即使員工後來花費數小時來清理它。
這並不意味著我們應該徹底放棄人工智慧。我相信它會繼續存在。關鍵在於學習如何正確、以最聰明的方式使用它。同樣重要的是要記住,人工智慧的設計初衷是產生想法,而不是整個專案。使用者應該將其視為腦力激盪的伙伴或草稿產生器,但絕不能完全依賴它來完成整個任務。
為什麼人工智慧混亂很重要?

即使你不在工作中使用人工智慧,也不在社群媒體上傳任何人工智慧生成的內容,你也可能感受到它的影響。無論是客戶報告,還是貓咪餵薯條的視頻,它都會浪費時間、降低信任度,並增加隱性成本。
更不用說,沒有什麼比期望人工智慧減輕你的工作量,卻發現自己坐在那裡看著它——或者更糟的是,糾正它的錯誤更令人沮喪的了。
評論被關閉。