三星引入ChatGPT不到20天 爆3件半導體機密資料外洩事故 智慧應用 影音
東捷資訊
AI Fine Tunning-ASUS

三星引入ChatGPT不到20天 爆3件半導體機密資料外洩事故

  • 蔡云瑄綜合報導

三星內部發生3起在ChatGPT誤用與濫用案例。法新社
三星內部發生3起在ChatGPT誤用與濫用案例。法新社

三星電子(Samsung Electronics)引入聊天型機器人ChatGPT不到20天,近日便爆出機密資料外洩意外,如半導體設備測量資料、產品良率等內容,傳已經被存入ChatGPT學習資料庫中。

綜合Economist、SBS等韓媒消息,三星內部發生3起在ChatGPT誤用與濫用案例,如三星內部人員在ChatGPT上提問、驗證答案,卻讓這些答案成為ChatGPT的學習資料庫,若有其他使用者在ChatGPT上提出相關疑問,恐讓三星企業機密外流,而此次ChatGPT誤用與濫用案例中,有2件與半導體設備相關,另外1件則屬會議內容。

據悉,三星電子半導體暨裝置解決方案(Device Solutions;DS)部門的A職員(匿名),日前執行半導體設備測量資料庫(DB)下載軟體時,因原始碼出現錯誤,A職員便複製出有問題的原始碼到ChatGPT,並向ChatGPT請教解決方法,但這一操作反而讓三星設備測量相關的原始碼成為ChatGPT學習資料。

其餘2件案例也是相似情形,如三星DS部門的B職員(匿名)為瞭解設備良率等資訊,將製作的程式碼輸入進ChatGPT中,並要求ChatGPT優化其程式碼;另外三星DS部門的C職員(匿名)則是要求ChatGPT製作會議紀錄。

為杜絕類似事故再發生,三星正在制定相關保護措施,若之後又發生類似事故,三星內部也可能會切斷ChatGPT服務。據傳,三星正考慮透過DS部門中的創新中心研發三星專屬AI服務。

對此,三星透過公告叮囑職員注意ChatGPT的使用方式,並提醒使用者在ChatGPT輸入內容後,相關資料都將傳送到外部伺服器,三星無法回收外流資料,因此如果讓ChatGPT學習三星內部資料,可能會讓敏感內容外流。

其實,在ChatGPT的使用指南中也特別呼籲「使用者不要輸入敏感內容」,最初三星也因擔憂內部機密外洩而禁用ChatGPT,不過基於半導體是「生成式AI」的建構基礎,三星自2023年3月11日起放行DS部門使用ChatGPT,但裝置體驗(Device eXperience;DX)部門仍禁用ChatGPT。

然而三星DS部門放行ChatGPT的政策不到20天,就出現內部機密資料外洩疑慮,證實先前部分觀點的擔憂,三星也在認知內部資料恐外洩的風險後,緊急將每一個ChatGPT提問容量限制在1,024byte以下,日後也不排除做出懲處。


責任編輯:陳至嫻