N0. 5 如何更加安全地使用AI工具?
一、企業實務案例:AI 提升效率,也可能埋下資安地雷
一家知名新創公司因為在內部開發流程中廣泛使用 ChatGPT,讓工程團隊顯著提升了產能。然而,在一次例行性資安稽核中,發現有工程師將尚未公開的 API 架構與資料結構直接貼入對話框中尋求建議。雖然 AI 工具有助於開發加速,但這樣的行為可能已違反公司保密協議,並可能將關鍵商業機密暴露於潛在風險之中。
然而以上案例並非孤例,根據 Gartner 的報告,2025 年前,將有超過 40% 的企業會因為未妥善管理生成式 AI 工具的使用而面臨法律或資安風險。從法遵到數據治理,AI 使用的「安全性」已成為不可忽視的核心議題。我們也可以看到在每個AI課程的課前問卷中,總是會看到學員們期望能夠更安全地使用AI工具?但怎麼做呢?
二、建議解決方案:打造 AI 使用的風險防線
為了更安全地導入與使用 AI 工具,個人可以採取以下二大策略
策略一:選擇較安全的AI工具
1. 選擇不會將資料用來訓練模型的AI工具,例如(ChatGPT)臨時交談模式
2.選擇非大陸AI工具,建議連大陸人於不同國家創辦的AI公司或工具也不建議
例如:Monica, DeepSeeK等
3.使用地端LLM或移動端SLM完成工作
地端LLM可採用Docker+ Ollma 解決方案
移動端SLM建議採用PocketPal app
策略二:選擇上傳較安全的資料
1. 主動避免輸入高風險資料
根據遠傳電信近期分享的內容指出,以下五類是高風險資料。
-個人身份資訊(如姓名、身份證號)
-財務資訊(如信用卡、投資資料)
-公司機密資料(如商業策略、內部報告)
-醫療與健康資訊
-帳號與密碼(任何登入憑證)
2.將要上傳給AI的資料去識別化
將要上傳至AI的資料,先去識別化,讓資料既使被調閱出來,都無法辨識與使用。當然這原則對於專利/智財權是不適用的
三、Takeaway 行動指引
不論個人或企業,都應視 AI 為雙面刃:提高效率,也帶來風險。
優先選擇具備資料保護機制的 AI 工具,並進行本地化評估。
對輸入內容需做最壞打算思考!若此資料上傳對公司/自已是否有害?
四、AI近期相關知識商品與課程
AI智能工作術電子書購買連結 (點選加入Line官方,輸入500,會有客服與您連繫)
設計專屬線上模擬桌遊遊戲服務連結 (點選加入Line官方,輸入Game,會有客服與您連繫)