portant;" />
3 月 18 日,斯坦福以人为本 AI 研究院(Stanford HAI)成立了。斯坦福利用 HAI 评估智能机(jī)器对人类生活所(suǒ)造(zào)成的影(yǐng)响,包括机器自动化(huà)取代了部分人(rén)力工作,算法引起的性别和种(zhǒng)族偏见,医(yī)疗、教(jiāo)育和(hé)司法(fǎ)系(xì)统中存在的 AI 问题。在研究院的发布会上,联合主任李飞飞强调了 HAI 需要秉持“以人(rén)为本”的(de)初衷,提出了三点(diǎn):
1)发展 AI 的过程中必须考虑 AI 对人类社会的影响(xiǎng);
2)AI 的应用是为了赋能人类,而非取(qǔ)代(dài)人类;
3)人工智(zhì)能应该更(gèng)多融入人类智慧的多(duō)样性(xìng)、差(chà)异性和深度。
技术(shù)飞速(sù)发展,人工智能对教育(yù)、科(kē)技、卫生和可(kě)持(chí)续发展(zhǎn)等方面都(dōu)起了(le)关(guān)键性助力作用。但同时,人(rén)工智(zhì)能(néng)也(yě)给人类提出了(le)一系列复(fù)杂的挑(tiāo)战。关于上(shàng)述三个原则,李飞飞希望(wàng):智(zhì)能机器更加以(yǐ)人为本,怀有(yǒu)善意。
什么是(shì)“以人为本”?
根据李飞飞提到的三点原则进行解读。第一点,作为技术的(de)发明(míng)者,人类应该正确的(de)引(yǐn)导AI的发展,更(gèng)好地服(fú)务人类(lèi)。比如在数据安全、隐私保护(hù)、社会(huì)伦理、知识产权等(děng)各个(gè)问题(tí)上(shàng),由世界性的权威组织制(zhì)定严格的(de)标准和(hé)法(fǎ)规,减少AI带来的(de)潜在的威胁,这已经(jīng)基本达(dá)成共识。
关于第二点,自人工(gōng)智能诞生以来(lái),“人类会(huì)不会被AI取代”、“AI会不会毁灭世界(jiè)”等耸人听闻的问题时常被提起。作为一项技术,AI应当是中(zhōng)性的,技(jì)术是用来服务人(rén)类的。从大的方(fāng)向来看,AI不断(duàn)进化它的判断和感知技能,在比较简单(dān)、重复(fù)性、危险性的工作上帮助人(rén)类,而人(rén)类(lèi)的能(néng)力可以更加(jiā)专注(zhù)于更高层次的人物,偏(piān)向创造性和感性的(de)部分,最终更有意(yì)义。
最后(hòu),近年来,AI发展出(chū)了计算机(jī)视(shì)觉、语音识别等能力,但在实际(jì)生活中,AI远远(yuǎn)落后于(yú)神经(jīng)元、人类智能的丰富和灵活性。例如,阿尔法狗击败了世界冠军,但它无(wú)法从胜利中感受到喜悦(yuè),也不会在胜利后产(chǎn)生(shēng)拥抱心所(suǒ)爱之人的渴望。例如(rú),AI可以在一张照(zhào)片中(zhōng)得知图片中的(de)内(nèi)容是什(shí)么(me),但是不能轻易识别图片背(bèi)后的(de)故事的因果关系。人(rén)工(gōng)智能需要变得更(gèng)有情感(gǎn)意识,加(jiā)强对(duì)情感(gǎn)和情(qíng)绪(xù)的认知(zhī),不仅能够捕(bǔ)捉对人的(de)情感(gǎn),更需要让机器跟人进行情感(gǎn)的(de)表(biǎo)达。
人性化AI无处不在
portant;" />
我国的人工智能正处在快(kuài)速发展的时期,技术攻关(guān)和产业应用近几年(nián)来发展势头迅猛(měng),目前已经被广(guǎng)泛应用于语(yǔ)音(yīn)识别、计(jì)算机视(shì)觉(jiào)、机器人、语言处理等领域,代表性(xìng)产(chǎn)品包括旷视科技的“FaceID在线人(rén)脸身份(fèn)验证”、极链科技的“VideoAI视频应用系统”、优必选的“个(gè)人智能机器人悟空”等(děng)。随(suí)着AI更加深度、多样性,具有情(qíng)感的细腻,将在产业应用中带来更多维(wéi)度的发(fā)展。
例如(rú),使用情感AI帮助人们利用强大(dà)的(de)技术(shù)建立与其他人(rén)的联系在(zài)医疗(liáo)行(háng)业已(yǐ)经逐步应用。在自闭症这一医(yī)学难症中,AI技术能够实现与自闭症儿童进行反(fǎn)馈,集成(chéng)反馈的数据,为定制治疗方案(àn)提供支撑。利用(yòng)AI机器可(kě)以促进自闭症(zhèng)儿童和(hé)日常(cháng)接触人之间的(de)沟通,教会自(zì)闭症(zhèng)的人读懂他人细微的情绪(xù);另(lìng)外,还(hái)能够(gòu)帮助(zhù)身边的人更好的识别自闭(bì)症儿童情(qíng)绪(xù)。
AI在听说(shuō)读写(xiě)、推理等方面的能力、效率和准确度持续提升,也可(kě)以为(wéi)视觉、听觉(jiào)、感知、学习(xí)、行(háng)动能力(lì)有所(suǒ)不便(biàn)的人群,打(dǎ)造出人(rén)工智能应用和产品。例如,利用(yòng)微软的人工(gōng)智能技(jì)术和认知(zhī)服务中的Microsoft Translator 服务,实现自动语音识别解决方案,可以帮助听力受损人群无(wú)障(zhàng)碍沟通。AI技术(shù)有(yǒu)希望帮助世界各地超过(guò)10亿残障人(rén)士,打(dǎ)造一个(gè)完整(zhěng)、平等、便利的世界。
类似的应用在教育(yù)场景下(xià),AI也能发(fā)挥无限量的作用。AI可以通过学生的面部表情和姿势对情绪(xù)作出有根据的判断,衡量每个学生的理(lǐ)解程序,可以帮助(zhù)老(lǎo)师(shī)因(yīn)材施教。
人(rén)类准备好了吗?
portant;" />
随着(zhe)人类越来越依赖于机器智能,我们的责(zé)任观念将会(huì)变成什(shí)么(me)样?人工智能的生成物是否为(wéi)作品,是否有著作权的问题?自动驾驶的安全(quán)性(xìng)、责任认定等法律问题不断涌现,人工智能干预的事故应(yīng)当(dāng)如何定责?甚(shèn)至是否赋予机器(qì)人以虚拟的“法律主体(tǐ)资格”?还(hái)有很多(duō)重要的应用领(lǐng)域,如安防(fáng),如果(guǒ)系统出现原则性决策(cè)失误,如何判定(dìng)?如何让人工智能可解释、可说明?
智能机器触发的人们对隐私、安全的担忧,该如何规避?AI的大幅度应用对就(jiù)业的影响(xiǎng)该如何权衡?在(zài)人(rén)工智能不(bú)断(duàn)走进生活的过程中,人类真的准(zhǔn)备好(hǎo)了吗(ma)?
这需要(yào)政(zhèng)策制(zhì)定者、法律学者、伦理学(xué)家(jiā)、科(kē)学(xué)家,大(dà)家一起寻找答案。但现(xiàn)状很显然,人工(gōng)智(zhì)能安(ān)全健康发展法规和伦理道德研究尚(shàng)且(qiě)不足,相应的法律法规以(yǐ)及道(dào)德规范要求还不健(jiàn)全,我们还不能有效防(fáng)范控制潜在的安全风险。科(kē)学向善(shàn),AI以人为本(běn),我们(men)需要考(kǎo)虑的事(shì)情(qíng)还很多。
小结:
与所有(yǒu)颠覆性技术一(yī)样,新一代人工智能具有高度的不确(què)定性,可(kě)能有很长的一段时间是不完(wán)美(měi)的,需要政府、社(shè)会、企业共同努力,规范人(rén)工智能的发展(zhǎn)。但有一点是(shì)很肯定的,技术的产(chǎn)生,是为了让(ràng)人类生活(huó)的更好,我们(men)要帮助AI更(gèng)加人性(xìng)化,拥有更好的未来(lái)。