津賢譯意│AI時代的暗面:保護自己免受AI欺騙

文/張津賢

AI人工智能的發展日新月異,為人類的生活和工作帶來了許多便利和效率,可是「水能載舟,亦能覆舟」,AI也帶來了一些潛在的社會問題和挑戰。其中,Deepfake技術就是一種能夠利用AI工具來合成或修改圖像、視頻和音頻的技術,使其看起來像是真實的人物或場景,但實際上是經過人工處理的偽造。

Deepfake技術的原理是基於人工神經網絡,例如面部識別算法和變分自編碼器(VAEs)以及生成對抗網絡(GANs)等,通過機器學習和數據分析,來模仿和替換一個人的面部表情、聲音或動作。這種技術已經在娛樂、政治和倫理等多個領域引起廣泛關注,因為它可能被用於製造假新聞、詐騙、騷擾和誹謗等不法用途,對個人和社會造成嚴重的影響。

為了提高公眾對於AI時代的資訊素養和防範意識,個人資料私隱專員(私隱專員)鍾麗玲親自示範了如何使用深度偽造技術來實時換臉,並在短片中提醒大家要小心保護自己的個人資料,不要輕信網絡上的一切。有圖有片都未必一定有真相!

請於以下連結觀看短片: https://youtu.be/76x0aOzLHVo

在面對AI技術的發展和應用,我們應該採取以下的措施,以減少受到Deepfake技術的威脅:

  • 教育和警惕:我們應該學習和了解AI技術的原理和應用,以及其可能帶來的風險和後果。我們應該對於網絡上的資訊保持批判思考和審慎判斷,不要輕易相信或轉發未經查證的內容。
  • 識別和防範:我們應該掌握一些基本的方法和技巧,來識別和驗證網絡上的圖像、視頻和音頻,是否是經過AI技術的修改或合成。這可能包括檢查視頻的來源、品質、細節和一致性,以及使用一些專業的工具和平台,來分析和比對視頻的真偽。
  • 隱私保護:我們應該嚴格保護自己的個人資料,不要隨意向不可靠的網站或應用程式提供或授權,以免被用於製作Deepfake內容。我們也應該定期更新自己的網絡安全設置,並使用可信的防毒軟件和防火牆,來防止個人資料被竊取或洩露。
  • 監管和法規:政府和相關機構應該加強對於AI技術的監管和規範,制定相應的法律和制度,以防止AI技術被濫用或損害他人的權益。同時,也應該提供一些渠道和機制,讓受到Deepfake技術影響的人士,能夠獲得及時的協助和救濟。

事實上,資訊科技業界也在積極地開發和推廣一些Deepfake檢測器,希望能夠幫助大眾辨別真偽,減少受騙的風險。例如,McAfee公司就推出了全球首款自動化AI驅動的Deepfake檢測器。這款Deepfake檢測器能夠在幾秒鐘內檢測視頻中的AI生成音頻,並向用戶發出警示,讓用戶能夠及時發現和避免AI生成的詐騙、Deepfake和錯誤信息。這款檢測器的準確率達到了96%,並且利用了神經處理單元(NPU)來提高性能,同時通過本地處理視頻數據來保護隱私,不會將用戶的音頻上傳到雲端或記錄下來。

McAfee公司還在其網站上提供了一個McAfee Smart AI™ Hub,這是一個提供有關AI和網絡安全的最新信息和教育內容的在線平台,重點關注Deepfake和AI驅動的詐騙。該平台還允許用戶通過提交可疑視頻進行分析,加入對抗詐騙的行列,這些視頻將由McAfee的先進AI驅動的Deepfake檢測技術進行分析。通過這些分析識別的見解和趨勢將用於進一步教育公眾,豐富社會對Deepfake和其他人工生成內容的理解和認識,增強每個人在日益由人工智能塑造的數字世界中導航和保持安全的能力。

(作者為聯想集團企業方案經理、工聯會地區幹事)

收藏收藏
取消收藏取消收藏

津賢譯意│AI時代的暗面:保護自己免受AI欺騙

收藏收藏
取消收藏取消收藏