近日,不少用戶反映接到一通內(nèi)容逼真、語調(diào)自然卻目的明顯的騷擾電話,令人意外的是,經(jīng)過調(diào)查,這些電話竟是由浙江大學(xué)研發(fā)的AI智能機(jī)器人撥打的。這些電話表面上是推銷電子產(chǎn)品,如智能手表、耳機(jī)等,但因其高度擬人化的交互能力,許多人在掛斷后仍難以相信對方并非真人。
這一事件引發(fā)了社會廣泛關(guān)注。一方面,AI技術(shù)的進(jìn)步令人驚嘆,浙大團(tuán)隊開發(fā)的機(jī)器人能夠模仿人類語音、應(yīng)對各種問題,甚至在對話中展示出情感變化,這標(biāo)志著人工智能在自然語言處理領(lǐng)域的重大突破。另一方面,這種技術(shù)被濫用于商業(yè)推銷,甚至可能涉及騷擾行為,也暴露了AI倫理與監(jiān)管的缺失。
專家指出,AI機(jī)器人撥打電話雖然高效,但若未經(jīng)用戶同意,便可能侵犯隱私權(quán),甚至涉嫌違法。浙江大學(xué)作為知名高校,其研究成果本應(yīng)用于促進(jìn)社會進(jìn)步,而非商業(yè)推銷。目前,相關(guān)部門已介入調(diào)查,呼吁加強(qiáng)AI應(yīng)用的倫理規(guī)范,確保技術(shù)創(chuàng)新與社會責(zé)任并重。
這一案例提醒我們,在享受AI帶來便利的同時,必須警惕其潛在風(fēng)險,推動技術(shù)與法律的協(xié)同發(fā)展。
如若轉(zhuǎn)載,請注明出處:http://www.yuhe0818.cn/product/28.html
更新時間:2026-03-01 18:40:41