「人工智慧檢查官」(Artificial Intelligence specialist)將是未來新職業,將負責協助企業監管 AI 演算法合規問題。
AI 大浪潮來襲,全球領先資訊科技研究及顧問公司Gartner 大中華區資深合夥人龔培元(Michael Kung)指出,預期 2023 年將有 75% 大型組織會雇用「人工智慧檢查官」,針對非法行為、隱私、客戶信任等面向監督,幫企業降低風險。
他指出,人工智慧跟機器學習技術發展,將使人類決策力大提升,未來「超級自動化」及「自主物件」將成為企業轉型利器,但也因為網路串連更緊密,遭受惡意攻擊度也提高,帶來新的企業風險。
企業大量導入 AI,「人工智慧檢查官」職位興起
當企業大量引用 AI 專案,就需要注意 數據偏差 ,因為對 AI 而言,事物沒有常識與否的問題,一切都是數據導引出來的結果,然後就會毫不思索的執行,所以餵給 AI 的數據好壞,將為企業帶來正面效益,同時也可能面對負面挑戰。數據偏見將會導引出隱私權跟種族歧視等問題,讓企業不知不覺走向非預期方向。
因此人工智慧檢查官這個工作至關重要,龔培元說,當企業收納很多數據,就必須注意數據是否中毒或被破壞,導致 AI 系統不可信賴,這與 10 年前大家為資訊安全,催生「可信賴電腦運算系統」一樣,企業如何信任 AI 帶來的結果,AI 是否跑偏?都是靠機制監督。
在企業大量投入 AI 下,AI 安全未來將是重要議題。龔培元說,未來網路駭客可能攻擊的層次將升高,目前共有三種攻擊手法,包括訓練數據病毒、竊取 AI 模型,甚至從數據源頭就放毒,藉此掌握對手企業的 AI 模型,誤導對手 AI 演算結果來競爭。
愈來愈多企業靠 AI 做決策,企業培訓人力是下一步
Gartner 資深研究總監呂俊寬(CK Lu)也分享,2022 年將有 30% 企業靠 AI 做決策,目前調查,平均一間企業手上有 3 個 AI 專案,但預計 5 年內企業導入的 AI 專案將倍增至 30 件,所需要花費時間將數十年,這其中關鍵問題是 AI 科學家太少,無法應付太多 AI 場景,所以企業必須讓 AI 技術不強的員工也加入專案協助。
提到 AI 前景,呂俊寬表示不得不提到「Shadow AI」這個觀念,這是指企業根本不知道的 AI 訓練,由員工自行研發,現在企業非常欠缺 AI 規範,員工自行做的 AI 訓練是否合規?所取得的數據來源合法嗎?企業掌握度並不高。
為了規範 AI 模型,部分科技大廠已經建立 AI 計畫平台,讓數據跟模型都公開透明,類似建立一個「 AI 廚房」供各部門使用。
針對 AI 興起帶來的隱私權跟安全性問題,各國都給予高度重視,歐盟執行委員會主席馮德萊恩(Ursula von der Leyen)也宣示,將在就任後的一百天內推出規範人工智慧(AI)及大數據應用的新法,加強管理 AI 機制。
不過如何監管 AI 是一個難題,近期社會上出現許多 AI 演算法大規模失誤造成的人身安全危害事件,比方自駕車撞死人,引起市場廣泛注意。若要保護大眾不被演算法影響,就必須追究演算法失誤的法律責任,而指定相關法規也會延長人工智慧跟機器學習演算法發展週期,企業人力的培訓跟認證將更花時間。
本文獲「數位時代」授權,原文標題為:新 AI 職業誕生!Gartner:未來 75% 企業需雇用「人工智慧檢查官」
簡述
當AI 可以協助廣告主、廣告代理商、電商平台快速而精準的生成打動人心的廣告文案、海報甚至短片,將對廣告界帶來何種影響?