11 min read

比起取代人類,你更該擔心 ChatGPT 的 3 大面向x

比起取代人類,你更該擔心 ChatGPT 的 3 大面向x
Photo by Jonathan Kemper / Unsplash

「你是一名文案師,以下是我的自介,請幫我把文案變得更易讀、專業、而且吸引人⋯⋯」

自從我發現各種 ChatGPT 的「咒語」過後,我立馬就付費訂閱,每天都和它玩得不亦樂乎,無論是文案修改、撰寫推薦信、解決程式相關問題,都交給了它。不過,身為工程師,在一陣全民 ChatGPT 的歡樂浪潮當中,我也看到了不少隱憂。

對於不了解 ChatGPT 原理的人,也許會覺得它是「人工智慧」,擁有接近人一般的智慧及思考能力,也開始擁有自己的意識,但它距離真正能模擬和發展出人類智慧和情感,其實還有很長的一段路。

ChatGPT 之所以看似有真實的智慧,能夠有智慧地回答問題,是因為他背後是大量資料和統計的結果。例如,你問它蘋果是紅色、還是綠色,如果全世界 90% 的人都說蘋果是紅色,ChatGPT 很可能會回答你蘋果是紅色的,但是蘋果一定是紅色的嗎?這就不一定了。也因此,在接下來會大量使用人工智慧作為應用的時代裡,比起許多人擔憂 ChatGPT 會取代人類工作,更令人擔憂的,是在不了解的狀況下大量應用,而產生的其他危險。以下將舉出 3 大在 ChatGPT 使用上可能會出現的問題。

一、生成式語言模型需大數據,個人隱私堪憂

由於 ChatGPT 這類的人工智慧生成式語言模型,多半仰賴大量來自人類的資料。而為了讓資料更準確,目前 Open AI 則是透過使用大量公開的資訊,例如論文、網路文章等等去訓練 AI,並在在官網上表示,他們也會用使用者提供的內容去提升 ChatGPT 的準確度。如果使用者不想要提供自己的內容,也有管道選擇不提供。然而,大多數的人都不會花時間去閱讀相關的隱私申明,更何況還要花時間去找到相關管道和頁面,勾選讓自己不用提供資訊的欄位?

另外,個人公開在社群的言論,等同於可讓企業免費獲得,隨意儲存並作為訓練人工智慧的素材嗎?3 月底時,由於隱私問題,義大利數據保護局已經宣布禁止在義大利使用 ChatGPT,許多歐洲國家也都正在考慮禁止使用 ChatGPT。

根據歐盟的通用資料保護法(GDPR),凡在歐盟地區上市的軟體、網頁,都需要符合 GDPR 的標準,不然可能會受罰,甚至遭到禁用。而 GDPR 對於個資的定義,比起過去只限於個人 IP 地址、姓名、電話等等私人資訊以外,也擴大到個人的身份認同、文化背景等等資訊。更簡單地說,一個人在公開的場合所發表的言論、透露出的個人資訊,若未經同意,皆不應被大量儲存,或拿來作為訓練 AI 的素材。

因為我也曾在對於資訊安全、個人隱私要求與其他產業相比來得高的醫療產業工作過,我知道沒有絕對安全的資料庫,只有還沒有被破解的資料庫。大量儲存個人資訊需要承擔非常大的風險,更別提大多數的資訊外洩的都是人為疏失,要避免相關問題發生根本防不慎防。

「你現在有空嗎?我需要 ABC 資料,立刻傳給我。」
我曾收過假冒公司 CEO 的釣魚信件,由於週末收到這樣的信件,通常是老闆有急事立刻要資料。當然在如此緊急的情況下,也許真的有人會一心急就忘了查驗來信身份,幸好我當時覺得有些奇怪,沒有回應這封信件。

這類的手法,都是叫做「社會工程」(social engineering)的攻擊方法,透過人性的弱點和漏洞,慢慢獲取擁有密碼、機密資料相關人士的個人資訊去破解資料庫。也因此,對於 Open AI 是否能夠完全地保證資訊的安全,我是保持存疑的態度,因對駭客來說,存取愈多珍貴個資的公司如政府機關、醫院、銀行等,愈是吸引他們去竊取資訊。以 Open AI 目前所擁有的資源和關注度來說,在專注在發展人工智慧技術的同時又要防止駭客,以及預防個人資訊外洩,相信將會是一大難題。

二、假訊息產出速度變快,一般民眾難以辨真假

「ChatGPT,請為我生成 10 篇網路文章,主題是『蘋果是藍色的』。」

由於網路普及化,不少網路上流傳的文章摻雜了虛假的訊息,許多人不經過查證就隨意分享、散播不實消息,加上社交媒體平台、即時通訊軟體的流行,使得這類訊息散布的速度也變得更加快速。

這幾年來也有許多平台或軟體致力於打破網路謠言,防止使用者散播或相信虛假訊息,比如臺灣事實查核中心、Line 訊息查證、CoFacts 真的假的等。然而,ChatGPT 作為生成式語言模型,因為能夠大幅加快文章生產的速度,讓需要透過大量人力和時間辨認網路文章真實性的單位,受到了不小的挑戰。因為,人類可能需要 20 分鐘才能辨認一個資訊的真偽,但 ChatGPT 只需要花 1 分鐘就能產生 10 篇文章。

另外一方面,網路詐騙則通常還是倚靠人類操作,透過各種話術,利用人性的弱點騙取金錢。雖然這幾年因為詐騙伎倆、話術、劇本都非常相似,在相關單位的宣導下,這些詐騙事件已經有逐漸受到控制。不過因生成式語言本身就會「說大部分人類喜歡聽的話」,因此依賴生成式語言技術,產生更適合受害者的文字,就會比起過去照本宣科的話術和劇本更加真實,而這也會讓相關單位更難辨認出詐騙模式,讓受害者更容易掉以輕心受騙上當。

三、生成式語言模型文化背景單一,多元文化受挑戰

某天晚上,我一邊看客戶的履歷,一邊想要提供客戶幾個比較好的求職工作目標(objective)範例。如往常一般,我請 ChatGPT 給我幾個範例,結果居然和客戶給我的履歷上的求職工作目標相似度極高。

這個事件提醒了我,如果下的指令相似,ChatGPT 就會產生相似的答案,也就是說,透過大數據和統計產生的人工智慧,缺乏來自使用者個人的生活經驗和文化背景,所產生的答案也缺乏多元性。

如果被作為產生內容和提供建議的來源,只會讓主流文化和族群更主流,非主流文化和族群更邊緣的問題。主因來自少數族群的資料極為珍貴稀少,拿來訓練人工智慧也不會有很好的效果,也因此,人工智慧的發展也會優先讓資料最多的主流主群享受到方便,導致少數族群有許多不好的使用體驗。

另外一方面,透過大數據訓練的語言模型,也有可能加深對少數族群的刻板印象,例如,10 個人裡面有 9 個人說亞洲人數學好,並不真的等於全部的亞洲人數學都很好,但如果訓練該模型的資料就含有這些偏見,模型所生成的文章也有可能含有偏見。

當然過往類似的的事件也曾發生過,像是 2016 年時,微軟推出了人工智慧聊天機器人 Tay,不到 24 小時,她就被網友們教成一位具有各種種族歧視的機器人,迫使微軟不得不迅速將 Tay 下架。

透過主流文化訓練出語言模型產生各種的文章,有可能會讓少數族群更難被看見,在各種科技發產的路上,為求快速發展,大多數的科技都是以服務主流大眾為先,使得各種少數族群、身心障礙人士等弱勢群體都是最後被考慮到的。此外,因人工智慧多經由巨量資料訓練,能夠發展出對少數族群友善的模型,相對起來挑戰還是較大。

創新、隱私安全、多元包容的「多難」情境

身為一個在新創產業工作多年的人,我明白新創產業的本質是靠快速發展產品,來迅速獲得巨大利益。在發展初期,若過度關注產品的隱私和安全性,或花時間考慮其他文化或背景的使用者,例如,製作無障礙版本,便可能拖慢或阻礙新創產品的快速發展。因此,大多數創業家都選擇在產品發展成熟、獲得初期成功後,才開始重視這個隱私安全、多元包容等等非核心產品相關的議題。

然而,要建立這樣的新文化和風氣,對創業家的領導能力是一大挑戰。公司的文化通常在創立初期建立,要改變公司文化對大多數企業家都很難了,更何況許多新創創業家都是第一次創業,同時還要面對投資人巨大的野心和非常高的期待。在資源分配上,創業家需要在發展產品、隱私安全、多元包容等方面做出兩難的抉擇。

選擇快速發展產品,可能會犧牲隱私安全和多元包容;而選擇重視隱私和多元包容,則可能讓開發速度變慢。在大多數的情況下,是否能夠獲利仍然是最具有說服力的因素。例如主打醫療或銀行產業的科技公司,必須得到各種高標準的安全隱私標章,才有可能接到大客戶,而這也會讓他們更願意針對用戶及儲存資料的隱私安全面向上,有更多層的防護。

不過當沒了對隱私要求等限制因素後,創業家更容易直接選擇以發展產品為重。畢竟,即使產品在初期取得成功,也並不意味著能夠永遠地成功,創業家必須不段投入心血在產品上,才能讓產品更加成熟。因此,如何在創新、隱私安全及多元包容之間取得平衡,對創業家而言至始始終都將是一個兩難的抉擇。

本文由Yi姐撰寫、換日線編輯團隊編輯,標題為比起取代人類,你更該擔心 ChatGPT 的 3 大面向」,該文章已在換日線平台上正式發布。