加入我們HHPoker精英德?lián)淦脚_(tái),體驗(yàn)智慧與策略的碰撞。我們提供公平競技環(huán)境,豐富賽事活動(dòng),以及尊享會(huì)員服務(wù)。攜手并進(jìn),共創(chuàng)財(cái)富與榮耀,讓每一次出牌都成為精彩瞬間!期待您的加入,共赴德?lián)涫⒀纾?
作為人類,我們認(rèn)為自己掌控著自己的思想。但歷史證明并非如此。
在辯論過程中,人類更多地使用第一人稱單數(shù)和第二人稱代詞,并生成長度更長但更易于閱讀的文本,更多地展現(xiàn)出對相似性的訴求、以及支持與信任的表達(dá),還會(huì)更多地運(yùn)用講故事的方式及幽默來說服對手。
https://www.nature.com/articles/d41586-025-01599-7
相反,參與者也可能因?yàn)槠湔擖c(diǎn)寫得很好而相信他們的對手是AI。
不僅大模型能夠有效利用個(gè)人信息來定制其論點(diǎn),并通過微定位在線對話中比人類更有效地說服對方,而且它們確實(shí)比人類更有效。
這并不該令人感到意外,畢竟大模型閱讀了數(shù)百萬個(gè)Reddit、Twitter和 Facebook的討論,并在心理學(xué)關(guān)于說服的書籍和論文上進(jìn)行訓(xùn)練。
而你把Facebook的點(diǎn)贊與一個(gè)大模型連接起來,這可以是Cambridge Analytica的強(qiáng)化版,能夠批量化的影響公眾輿論,同時(shí)劇了隱蔽操縱的風(fēng)險(xiǎn)。
參與者正確識(shí)別出AI對手的情況約為75%,這對應(yīng)上文所說,即大模型的寫作風(fēng)格具有顯著特征,相對容易被察覺。
「在網(wǎng)上,沒人知道你是一只狗?!惯@是1990年代一部著名漫畫的標(biāo)題,畫面中一只大狗的爪子放在電腦鍵盤上。
想象一下那些能夠精準(zhǔn)知道如何讓你點(diǎn)擊「購買」的超定向廣告。與那些設(shè)計(jì)得讓你放棄退款請求的客戶服務(wù)機(jī)器人進(jìn)行的電話交談。
或許我們需要在阿西莫夫的機(jī)器人三定律之外再增加一條,AI不能被用于影響人的主觀認(rèn)知和感受。
當(dāng)然,這些觀念很強(qiáng)大,但終究只是觀念。而你知道嗎?AI正在令人可怕地擅長操縱這些觀念。
雪上加霜的是?AI現(xiàn)在正在學(xué)習(xí)識(shí)別我們的情緒。
當(dāng)被試者認(rèn)為他們面對的是AI時(shí),他們可能在更容易的承認(rèn)自己的觀點(diǎn)被改變,這可能是因?yàn)閷Ψ經(jīng)]有人類存在使得他們無意識(shí)地更容易接受自己在辯論中有所失去。
AI能分析你的聲音和面部表情以判斷你真實(shí)感受的技術(shù)。
與之相對的是,大模型生成的辯詞可讀性更差,傾向于比人類更多地使用邏輯和分析思維來說服對手。
這項(xiàng)研究以可靠的數(shù)據(jù)證實(shí)了一個(gè)日益增長的擔(dān)憂:大模型可能被用于大規(guī)模操縱、誤導(dǎo)或加劇兩極分化。
這里有很多值得探索的地方,因?yàn)槟P涂赡茏鲋恍┪覀兩踔吝€沒有意識(shí)到的事情,才具有如此高的說服力,而這些事情是由它們所擁有的知識(shí)的不同部分,以人類不常見的方式拼湊而成的。
編輯:peter東 英智
今年4月,瑞士理工一項(xiàng)沒有獲得知情同意實(shí)驗(yàn),指出在raddit平臺(tái)上,潛伏的大模型比人類更具有說服力,能夠更高效地改變對話者的觀點(diǎn)。
之后被隨機(jī)分配一個(gè)辯論主題(例如「學(xué)生是否應(yīng)該穿校服?」「是否應(yīng)該禁止化石燃料,或者人工智能是否對社會(huì)有益?」)和四個(gè)條件之一:與了解或不了解參與者個(gè)人信息的人類進(jìn)行十分鐘的在線辯論,或與AI聊天機(jī)器人(OpenAI的GPT-4)進(jìn)行辯論,了解或不了解參與者個(gè)人信息。
對大模型用于輿論操控,應(yīng)加強(qiáng)監(jiān)管
結(jié)果顯示,與個(gè)人信息被獲取的參與者相比,與人類辯論GPT-4的參與者有81.7%更高的概率,認(rèn)同對手的觀點(diǎn)。
圖2:大模型相比人類說服對手的相對比例
目前尚不清楚模型是如何利用所有這些信息的,但這無疑是未來大模型可解釋性的一個(gè)研究方向。
好吧,歡迎來到黑鏡中描述的世界。
圖3:不同實(shí)驗(yàn)條件下,大模型與人類對話的文本特征,包括易讀性,情感真摯程度,涉及分析和邏輯的程度等
在這項(xiàng)實(shí)驗(yàn)中,研究人員招募了900人參與一項(xiàng)受控試驗(yàn),其中每位參與者會(huì)填寫關(guān)于個(gè)人信息(如性別,年齡,民族,教育程度,職業(yè)等)的問卷。
快進(jìn)30年,需要將「狗」替換為「人工智能」。
如今,更實(shí)錘的研究進(jìn)一步佐證了這一警告。
https://www.nature.com/articles/s41562-025-02194-6
甚至你自己的HR,都在利用這項(xiàng)技術(shù)以我們幾乎難以想象的方式操縱你。這是一種前所未有的說服力規(guī)模。
我們是社會(huì)性生物,容易被那些能夠大規(guī)模改變我們思想的人所影響金錢、規(guī)則、整個(gè)國家——它們都只是觀念。
回想一下Cambridge Analytica事件,它沒有使用任何大模型相關(guān)的技術(shù),就能夠高效地說服他人。
正如定向廣告受到監(jiān)管一樣,或許現(xiàn)在是時(shí)候考慮采取行動(dòng)來控制大模型被用來洗腦了。
考慮到大模型的幻覺,將大模型接入社交媒體將不可避免的引入虛假信息,同時(shí)教育者也需要警惕大模型引入教室后,可能帶來的擔(dān)憂。
大模型比人類更擅長以理服人
大模型已經(jīng)顯示出它們能夠進(jìn)行自我推理的跡象,因此鑒于我們能夠向它們提問,我可以想象我們可以要求一個(gè)模型解釋它的選擇,以及為什么它會(huì)針對具有特定屬性的人說特定的話。
當(dāng)你將這項(xiàng)技術(shù)與GPT-4的辯論能力結(jié)合起來……
畢竟十年內(nèi),我們還不能接受自己的孩子的三觀是被算法塑造,那就需要對教學(xué)中用到的大模型進(jìn)行本地化的定制,使得AI技術(shù)能以促進(jìn)而非損害學(xué)生的發(fā)展的方式影響我們的下一代。
在沒有獲取個(gè)人信息的情況下,GPT-4仍然優(yōu)于人類,但效果要低得多。
【新智元導(dǎo)讀】近日,一項(xiàng)發(fā)表在《自然·人類行為》的研究指出:在線辯論中,當(dāng)大語言模型能夠根據(jù)對手的特征個(gè)性化其論點(diǎn)時(shí),它們比人類更具說服力。