專家指出,當(dāng)算法和心理學(xué)、腦科學(xué)試圖占據(jù)人的注意力時,應(yīng)加大對人工智能價值觀審視和對人工智能倫理研究
■本報(bào)記者 姜澎
每個人都有過這樣的經(jīng)歷:打開手機(jī)準(zhǔn)備回消息或打電話,一看到微信圖標(biāo)右上方的小紅點(diǎn),于是忍不住先打開微信;看完微信,不知不覺又被另一個App牽引,直到關(guān)閉手機(jī)屏幕才發(fā)現(xiàn)自己早已忘了打開手機(jī)的初衷。
你以為這是健忘?非也!智能手機(jī)每一個App背后的算法,不僅有人工智能領(lǐng)域?qū)<也俚,還有心理學(xué)以及腦科學(xué)家的“精心設(shè)計(jì)”,讓你不知不覺“深陷其中”。
超級人工智能和人類的博弈,是科幻作品中的永恒主題。而如今,這種博弈或許已嵌入人們的日常生活之中。
時下,越來越多的學(xué)者開始熱議一個話題:當(dāng)算法與心理學(xué)、腦科學(xué)等對關(guān)乎人類本身認(rèn)知的科學(xué)結(jié)合得越來越緊密時,算法是否會主宰我們的生活?人類是否會淪為算法的“奴仆”?
雖然不同學(xué)科背景的專家對此看法不一,但大家達(dá)成一點(diǎn)共識:學(xué)會與機(jī)器正確相處,對生活在智能時代的每一個人而言,都是一種生存技能,其重要性不言而喻。
人的注意力,正在成為被“精心設(shè)計(jì)”的對象
日前,一部關(guān)于社交媒體成癮的紀(jì)錄片《社交困境》引發(fā)不小關(guān)注。紀(jì)錄片中的主角,正是那些曾經(jīng)在硅谷等知名互聯(lián)網(wǎng)公司的從業(yè)人員。他們坦言,當(dāng)開始意識到隨著算法的升級,尤其是當(dāng)算法和心理學(xué)、腦科學(xué)相互融合,并逐漸占據(jù)人類越來越多的注意力時,他們自己也覺得似乎無法逃脫算法的“控制”。
事實(shí)上,打開手機(jī)、點(diǎn)開某個App或劃動拇指,對很多人來說不僅是習(xí)慣,也已成為一種肌肉記憶,甚至是一種本能。而這背后,是不是也有一只“看不見的手”在操控呢?
“人工智能的發(fā)展,使得機(jī)器帶來的成癮行為越來越普遍。”上海交通大學(xué)心理與行為科學(xué)研究院執(zhí)行院長李衛(wèi)東介紹,和藥物成癮會給大腦細(xì)胞層面帶來不可逆變化有所不同,電子產(chǎn)品或社交軟件成癮對大腦機(jī)制的影響方式,目前尚未非常明確。但可以確認(rèn)的一點(diǎn)是,隨著算法和人工智能的發(fā)展,這類“成癮”的可能性更大、影響也更廣。
要知道,在互聯(lián)網(wǎng)時代來臨之前,人類的一切發(fā)明都是基于人類的主動使用,使某項(xiàng)新發(fā)明能為人類服務(wù)。但如今,技術(shù)正無時無刻不在想方設(shè)法吸引人的注意力,甚至希望能“操控”人的想法并從而獲利!渡缃焕Ь场分刑岬,“一切產(chǎn)品都以營利為目的,但是當(dāng)這些產(chǎn)品都免費(fèi)時,那么你就是產(chǎn)品!
對互聯(lián)網(wǎng)公司而言,人的注意力正在成為被“精心設(shè)計(jì)”的對象——用戶的增長、用戶使用的時間延長,甚至對用戶想法的操控,都能換來更多的利潤。用戶就是能夠“自主長大”的產(chǎn)品。
確實(shí),很多人已經(jīng)發(fā)現(xiàn),信息推送不僅越來越精準(zhǔn),且很多推送是基于個人喜好,由算法算出來的。有時候,這些推送并不是以事實(shí)為依據(jù),其中夾雜著偏激甚至錯誤的觀點(diǎn),只為迎合用戶。隨著個人偏好在這些推送中被不斷加強(qiáng),每一個人基于這些推送信息而“看”到的世界也由此顯得不同。
在算法“包圍”中,人將變得越來越焦慮、脆弱?
當(dāng)算法對人類的愛好和行為預(yù)測越來越準(zhǔn)確時,越來越多的成年人或未成年人在這樣融合心理學(xué)和腦科學(xué)的算法“包圍”中,也許會變得越來越焦慮、脆弱。學(xué)會和機(jī)器相處,應(yīng)該是每一個人面對未來所必須儲備的能力。
在同濟(jì)大學(xué)任教的劉翠蓮有多年從事心理咨詢服務(wù)的經(jīng)驗(yàn)。據(jù)她觀察,這一代00后、10后,都是在現(xiàn)實(shí)世界和虛擬世界同時存在的平行世界中成長起來,他們已習(xí)慣網(wǎng)絡(luò)上的日常社交,包括點(diǎn)贊、評論等。但事實(shí)上,無論是點(diǎn)贊還是評論,這些社交界面的功能開發(fā),也都是根據(jù)心理學(xué)原理精心設(shè)計(jì)的。對未成年人來說,短期反饋容易讓人獲得短暫的滿足感,且會讓他們不斷地追求這樣的滿足。但這種“誘導(dǎo)”機(jī)制,或許也會成為他們心理壓力的來源。
“人和任何技術(shù)或機(jī)器之間都存在互動,可能是人控制機(jī)器,也可能是人被機(jī)器控制!鄙虾<~約大學(xué)教授張崢始終認(rèn)為,技術(shù)是中性的,就像使用搜索引擎時,每當(dāng)你搜索一個詞,推送給你的第一個頁面的前10個結(jié)果一定是根據(jù)你的習(xí)慣和偏好精心裁剪過的,目的就是讓你喜歡這個搜索結(jié)果,從而持續(xù)地用這個搜索引擎!巴锰幷f,這種設(shè)計(jì)是為了提升用戶粘性;往壞處說,也可以理解為通過強(qiáng)化你的偏好,更容易‘操控’你!
更多科學(xué)研究,應(yīng)關(guān)注人與機(jī)器的交互
和人工智能技術(shù)發(fā)展速度相比,人工智能倫理研究則顯得落后。不少學(xué)者在接受記者采訪時都談到,當(dāng)下的人工智能發(fā)展使得人與機(jī)器的關(guān)系越來越復(fù)雜,人工智能的安全性、可靠性、可信度以及在如何符合人類價值觀等方面,都生發(fā)出很多值得探索的全新科學(xué)問題。
就在不久前,浙江大學(xué)心理科學(xué)研究中心和心理學(xué)系的三位學(xué)者聯(lián)合發(fā)表文章,提出必須將“人-AI交互”作為新的研究領(lǐng)域,并勾畫了具體的研究框架,倡導(dǎo)學(xué)科交叉合作,目標(biāo)是確保人工智能造福人類。
幾位學(xué)者不約而同地談到,不恰當(dāng)?shù)娜斯ぶ悄芗夹g(shù)開發(fā)已導(dǎo)致了不少傷害人類的事故。僅僅在學(xué)術(shù)界認(rèn)可的“AI事故數(shù)據(jù)庫”里就已記錄了1000多起事故,如自動駕駛汽車撞死行人、交易算法錯誤導(dǎo)致市場“閃崩”等?紤]人工智能的價值觀等問題,并不是為時過早,其必要性和緊迫性日益凸顯。
有學(xué)者呼吁,心理學(xué)本身是關(guān)注人的學(xué)科,而從學(xué)科發(fā)展來看,未來的心理學(xué)不僅要更加關(guān)注人本身,還應(yīng)關(guān)注人如何與機(jī)器打交道。作為心理學(xué)的分支,在中國目前已有工程心理學(xué),這個學(xué)科的核心科學(xué)問題,就是研究在開發(fā)復(fù)雜系統(tǒng)中,如何保證技術(shù)與人的心理、生理規(guī)律相匹配,以便于人的理解和操作,使得整個人—機(jī)系統(tǒng)的效能達(dá)到最佳狀態(tài)。
復(fù)旦大學(xué)計(jì)算機(jī)教授張軍平也認(rèn)為,技術(shù)本身有其發(fā)展邏輯,但是當(dāng)技術(shù)與心理學(xué)、腦科學(xué)的融合越來越密切時,確實(shí)應(yīng)該加強(qiáng)對人與技術(shù)的交互關(guān)系研究,并且更客觀、更審慎地對待技術(shù)。