AI正以相(xiàng)当显眼得方(fāng)式重塑着我们的世界(jiè),数据驱动(dòng)着全球数字生态系统,AI技术(shù)则揭示了数据中的模式(shì)。智能手机(jī),智能家居以及(jí)智慧城市在影响着我们生活和交互方式,AI系统(tǒng)越来越多用于公(gōng)司招聘(pìn)、医疗(liáo)诊断和司法(fǎ)裁决(jué)。这(zhè)是一个乌(wū)托邦(bāng)时代还是反乌(wū)托邦时代,全看你怎么看。
AI的潜在威(wēi)胁早已(yǐ)被人说烂了,杀(shā)人机器人以及大规模失业(yè),甚(shèn)至还有人担心(xīn)人类灭绝。而乐观主义者(zhě)预(yù)测AI到2030年将会为全球经济带来(lái)15万亿美元(yuán)的价(jià)值(zhí)。
我们当然需要考虑(lǜ)AI对我们社会所带来的影响。其中一个引人注目的(de)点是(shì),AI系统(tǒng)加剧了现有的(de)社会(huì)歧视。先进(jìn)的机器翻译系统会(huì)产生性别歧(qí)视的输(shū)出,图(tú)像识别系统把黑人归分为大(dà)猩猩。
之所(suǒ)以(yǐ)会出(chū)现(xiàn)这些问题是因(yīn)为,AI系统会采用类似于神经网络的数字模(mó)型来识别训练时候的(de)数据(jù)。如果数据本身(shēn)就是歪曲的,那么(me)它固(gù)有的偏(piān)见就会自然地(dì)被训练过的AI系统学习和复制(zhì)。这种(zhǒng)带有偏见的自主技术(shù)是有问(wèn)题的,因为他们会边缘(yuán)化(huà)女(nǚ)性、少(shǎo)数民族以及老(lǎo)年人,从而加(jiā)剧社(shè)会(huì)失衡。
如经典电(diàn)影X战警(jǐng),X战警在英文里是(shì)X MEN,用(yòng)的是(shì)男性(xìng)的单词,还(hái)有(yǒu)黑衣人Man in Black,同样也是(shì)用的男性(xìng)的(de)单词。尽(jìn)管电(diàn)影方已经开始(shǐ)意识到性别歧视问题,在电影中新增女性角色,或(huò)直接由女性演员(yuán)接(jiē)替成为主角,如(rú)Iron Man钢铁侠(xiá),虽然漫威宣布下一任钢铁侠是一位女性,但其名字仍然为(wéi)Man而不是Woman。
要减少AI系统的偏(piān)见,我们本身就(jiù)得减少这些(xiē)偏见用(yòng)词,虽然很不幸,我们不能完全消灭这些偏见,但(dàn)我们必须要朝着这个方向前进(jìn),就像电影方一样。