草根影響力新視野 夜未央編譯
大型科技公司對人工智慧和聊天機器人的投資激增—在大規模裁員和增長下降—使許多首席資訊安全官陷入旋風。
隨著OpenAI的ChatGPT,Microsoft的Bing AI,Gooe的Bard和Elon Musk的計劃將自己的聊天機器人打造成頭條新聞,生成式人工智慧正在進入工作場所,首席資訊安全官需要謹慎地處理這項技術,並準備必要的安全措施。
GPT背後的技術,或生成式預訓練轉換器,由大型語言模型(LLM)或生成式聊天機器人對話的算法提供動力。但並非每間公司都有自己的GPT,因此公司需要監控員工如何使用這種技術。
麥肯錫全球研究所合夥人 Michael Chui 將其與員工使用個人電腦或手機的方式進行比較時表示,如果人們發現生成式AI對他們的工作有用,他們就會使用它。
Chui說:「即使它沒有被IT認可或祝福,人們也會發現聊天機器人有用。」
他說:「縱觀歷史,我們發現了非常有吸引力的技術,以至於個人願意為它買單。早在公司說『我會提供給你』之前,人們就開始購買手機了。個人電腦也是,所以我們現在看到了生成式人工智慧也一樣。”
因此,公司在如何採取安全措施方方面出現了「趕上」。
無論是標準的商業慣例,例如監控AI平台上共享的資訊,還是將公司批準的GPT整合到工作場所,專家都認為首席資訊安全官和公司應該開始在某些領域。
圖片取自:(示意圖123rf)
從資訊安全的基本知識開始
已經在打擊倦怠和壓力的首席資訊安全官處理了足夠的問題,比如潛在的網路安全攻擊和不斷增長的自動化需求。隨著人工智慧和GPT進入工作場所,首席資訊安全官可以從安全基礎開始。
Chui表示,公司可以授權使用現有的AI平台,這樣他們就可以監控員工對聊天機器人說的內容,並確保共享的資訊受到保護。
Chui說:「如果你是一家公司,你不希望你的員工提示帶有機密資訊的公開聊天機器人,你可以採取技術手段,你可以就你的數據允許軟體可不可以達成可執行的法律協議。」
Chui說,許可使用軟體帶來額外的制衡。保護機密資訊,監管資訊儲存地點,以及員工如何使用軟體的指導方針—所有這些都是公司授權軟體,人工智慧與否的標準程序。
Chui說:「如果你有一個協議,你可以審核軟體,所以你可以看到他們是否以保護數據的方式執行。」
大多數使用雲端的軟體儲存資訊的公司已經這樣做,Chui說,所以領先並為員工提供公司認可的人工智慧平台意味著企業已經符合現有的行業慣例。
如何創建或集成客製化的GPT
人工智慧驅動的人才招聘平台Ceipal的首席執行官Sameer Penakalapati說,公司的一個安全選擇是開發自己的GPT,或者聘請創造這種技術的公司來製作客製化版本。
在諸如人力資源這樣的特定功能中,有多個平台從Ceipal到Beamery的TalentGPT,公司可能會考慮Microsoft提供可訂製的GPT計劃。儘管成本越來越高,但企業也可能希望創造自己的技術。
如果一家公司創建了自己的GPT,該軟體將擁有它希望員工造訪的確切資訊。Penakalapati 說,公司還可以保護員工輸入的資訊,但即使聘請AI公司來生成該平台,也將使公司能夠安全地輸入和存儲信息。
Penakalapati表示,無論公司選擇哪種方式,首席資訊安全官都應該記住,這些機器的性能取決於它們所受的教育。有意識地處理您提供給技術的數據很重要。
Penakalapati說:「我總是告訴人們要確保你擁有的技術可以根據公正和準確的數據提供資訊。因為這項技術不是偶然產生的。」
資料來源:https://www.cnbc.com
Polygon recent comments