「以假亂真」的罪案

人工智能已不算新鮮事物,一直以來,大家最關心是它會否取代人類的工作,尤其是去年11月生成式人工智能推出市場,其能力已超越一般大眾。不單讓大家驚歎,也令大家擔憂。當時,早有專家和政府「先天下之憂而憂」,擔心這樣的技術發展太快,我們「追不上去」。這個「追不上去」,不是說技術、知識,而是泛指從法例、規管、道德等方面思考它對社會的潛在性風險。我國作為人工智能大國,也是首屈一指率先全產業方位啟動數字化轉型的國家,對深度依賴數據採集和應用的生成式人工智能應用橫空推出非常警覺。所以立即著手進行相關的規管制訂工作,最後在本年8月15日正式落地這份由國家網信辦聯合國家發展改革委員會、教育部、科技部、工業和信息化部、公安部、廣電總局七個部門共同發佈的「生成式人工智能服務管理暫行辦法」,首次對這項技術的應用同時進行鼓勵、監管。大家可能覺得奇怪,為甚麼要這麼的認真(粵語:大陣仗)。 殊不知,事實證明了國家是對的,因為同一時間不法分子的確已盯上這種技術。截至今年8月,公安部已偵破79宗涉及使用人工智能進行「換臉」的欺詐案件,拘捕了515名嫌疑人。當中比較典型的是發生在4月份,一名受害人接收好友的視頻通信,該友人說在外地投標,需要430萬元作為保證金。因為通過視頻對話,受害人在10分鐘內把430萬元轉帳到對方銀行戶口,然後撥打電話給朋友確認收款。這才發現受騙;不法分子利用生成式人工智能技術以「換臉、聲音合成模仿」方式進行冒充行騙。同月有另一類似個案,也是通過一段9秒長的熟人視頻騙去245萬元。香港早前也發生了利用「換臉」欺詐手段向金融機構申請貸款的案件。此外,除了假扮熟人視頻行騙外,也有利用人工智能「換臉」技術來製作虛假廣告、造謠、虛假視頻,這犯案趨勢已在全球蔓延。在網上,可以被利用作為「換臉」素材的頭像已能輕易買到;用來製作合成聲音的音頻樣本也能通過不明來歷釣魚來電獲取。所以未來的日子,我們的頭像、聲音是有機會被竊取作犯案用途,或用以對我們的家人行騙。所以大家對於個人資料保護應該有更深層次的思考,包括自己的照片、行踪,以免為不法分子所乘。對於在社交平台上認識的網友,也應有足夠的警惕。同時,當局和社團亦需要對老人家、年輕人進行教育,以減低被騙機會。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *