文/李廣宇
近日,本港多名立法會議員接連成為犯罪集團使用人工智能(AI)換臉技術進行詐騙的目標。繼日前有議員收到「裸女合成片」的郵件勒索之後,最新再有議員懷疑被騙徒利用AI扮聲,導致其相熟工會分會理事長被騙走數萬元,連串事件引發公眾對AI技術被濫用的憂慮。筆者作為金融科技業界的一員,認為政府必須正視AI技術在現今社會中的快速普及所帶來的風險,應及早引入相應的法律,防範於未然。
AI換臉技術,又稱「Deepfake」(深偽技術),正是基於深度學習(Deep Learning)和影像處理的人工智能技術,通過分析大量影像數據,模擬人臉和聲音,從而生成以假亂真的合成影像或視頻。這種技術最早應用於娛樂與影像製作行業,例如電影中的特效,但隨着技術進步,換臉技術的門檻已經大幅降低,任何人只需一部手機即可製作以假亂真的影像或視頻,這種便利性容易被不法之徒濫用。
筆者留意到今年初香港警方曾披露一宗AI換臉詐騙案,涉案金額高達2億港元,並拘捕了6人。犯罪分子涉利用報失的身份證信息,通過AI技術將臉部與身份證照片合成,然後進行詐騙,成功申請貸款。這類犯罪手法新穎而複雜,讓金融機構難以迅速識破,受害者更是防不勝防。
事實上,AI犯罪案件並非僅限於香港,許多國家也面臨類似問題。例如,韓國已經多次發生利用AI換臉製作色情圖片的犯罪案件,受害者包括學生、教師、女兵等,甚至有未成年人。英國也有許多AI換臉技術引發的刑事案件。有30多位英國女政客的數百張合成照片曾出現在色情網站上,受害者包括工黨副黨魁雷納、前內政大臣帕特爾等。
隨着技術的日益普及,無論名人、政客,還是普通市民,都可能成為AI換臉詐騙的受害者。單靠個人防範已經不足以應對,政府和企業亟需採取行動,以法律及技術手段應對這些風險,保護公民的隱私和安全。
儘管香港現有法律《不誠實使用電腦罪》可適用於部分AI詐騙案件,但現行法律對AI技術的規範仍有不足之處。許多國家已經開始探索針對AI技術的專門法律框架。例如,2021年,韓國已修訂《性暴力犯罪法》,禁止製作及傳播深偽色情影像。筆者認為政府可以參考此類國際經驗,建立針對AI換臉技術的法規,尤其針對隱私侵犯和詐騙行為,對犯罪者追究相應的法律責任。
值得留意的是,單靠警方單一部門難以全面應對這類新型詐騙犯罪,筆者認為政府應考慮建立跨部門合作機制,結合科技專家、金融機構和法律界,形成綜合的應對策略。金融機構應加強對客戶的身份驗證,科技公司則需要研發更加先進的技術手段來識別AI深偽技術內容。此外,政府應加強市民的網絡安全教育,讓公眾意識到AI換臉詐騙的威脅,拒絕來歷不明的視頻通話,關閉鏡頭,防止影像被濫用。
AI技術是一把雙刃劍。一方面,它促進創意產業的發展;但另一方面,也為犯罪分子提供了新犯罪的工具。因此,特區政府以至社會各界必須採取多方位的應對策略,從技術、法律、教育等多方面加強防範,以保護市民的權益,維護社會的穩定與安全。筆者相信,只有在全社會的共同努力下,才能真正杜絕這類技術的濫用,保護公眾的隱私,打造更安全的數字世界。
(作者為香港I.T.人協會會長、中華海外聯誼會理事)