
【點新聞報道】AI人工智能「換臉」、「換聲」的「深偽技術」(Deepfake)開始運用於詐騙,正在全球迅速蔓延,香港警務處近日提醒市民慎防騙徒以「深偽技術」換臉換聲進行詐騙。香港資訊科技商會榮譽會長方保僑今日(4日)在一個電台節目支招,市民若對「親友」視像來電有懷疑,可要求對方「擰吓個頭、say個hi」,或留意對方動作是否自然。他亦建議網民不要在網上透露過多個人資料,切忌在社交媒體上傳正面照片。
方保僑形容深偽技術近年突飛猛進,網上出現不少程式可供換臉。他提到,有市民接獲「親友」視像來電要求匯款,若有懷疑,可要求對方做指定動作,「擰吓個頭、say個hi」,以明辨真偽,最好做法是致電親友本人查證。
近日有市民反映出現許多「無聲」視像來電,接聽後對方未必出聲,只展示相片。方保僑提醒,有機會是騙徒從中錄影接聽者的樣貌及聲音,呼籲市民不要隨意接聽來源不明的視像對話來電,並不要在社交媒體發布正面相片,保護私隱安全。
相關報道:



稿件由上傳 · 文責自負 · 不代表本網立場