在生成式 AI持續加速發展的浪潮中,越來越多組織積極導入開放原始碼語言模型,期望藉此提升作業效率、加速創新,像是「DeepSeek」就是其中的代表。然而,技術效能的進步,卻不代表能夠換得真正的「信任」。
當 AI 模型開始自動下決策、產生建議,甚至主動生成內容,組織將面臨前所未有的風險與挑戰:
• 模型行為是否具備一致性?是否可能在不同語境下出現非預期的反應?
• 是否潛藏偏見、錯誤資訊、甚至生成危及安全與合法性的內容?
• 當模型「越權行動」、責任邊界模糊、輸出結果難以追責…情況發生,這時該如何應對?
這些問題,牽涉的不僅是技術,更關乎信任、責任與風險的分配。AI 系統的可信性不能依賴單點修補,而必須納入組織層級的治理架構。
本場網路研討會將以 DeepSeek 為實例,深入剖析當代開放原始碼 AI 系統在行為可控性、資料處理透明度,以及偏見與濫用風險等層面的實務挑戰。並進一步說明,如何透過國際標準 ISO/IEC 42001 (人工智慧管理系統),建構可信 AI 的治理制度與風險控管機制。
我們將從實際案例出發,協助與會者掌握:在導入 AI 的同時,如何兼顧安全、合規與可信性,一步步打造值得信賴的智能未來!
研討會議題
主題:從 DeepSeek 談 AI 治理與倫理風險:用 ISO 42001 建立可信任防線
▪︎ AI 應用背後的資料風險與倫理爭議
▪︎ AI管理新標準:ISO/IEC 42001 是什麼?
▪︎ 從風險到機會:打造可信任 AI 的實務建議
👤 講者:SGS 管理與保證事業群 王登右 產品經理