科技日报北京12月18日电 (记者张梦然)美国华盛顿年夜学一项研究初次注解,人工PA集团官网智能(AI)体系可以经由过程不雅察人类于特定文化中的举动,进修并内化响应的文化价值不雅。这为解决AI跨文化顺应问题提供了新思绪。相干论文已经发表在《PLOS One》。
当前,AI凡是基在年夜范围互联网数据举行练习,而这些数据中蕴含的价值不雅往往具备文化倾向性,致使体系于差别文化配景的用户眼前体现纷歧致。为此,研究团队测验考试让AI以“不雅察进修”的方式,从详细文化群体的举动中吸取价值不雅,而非被预先植入某一套通用准则。
研究团队试图摸索的是,AI可否像儿童那样,经由过程不雅察周围人的举动,天然而然地习患上地点文化的价值不雅。团队招募了190名成年人介入试验,让他们别离与AI代办署理举行互动。试验中,介入者玩一款改编自游戏《Overcooked》的协作使命。于游戏中,介入者可选择是否将本身得到的资源无偿赠予给较着处在劣势的呆板人玩家,只管这会影响本身的使命患上分。成果显示,有一组介入者总体体现出更多的利他举动。
AI代办署理则经由过程“逆向强化进修”要领,从所不雅察群体的举动中揣度其举动方针与内涵价值不雅。于后续测试中,这些代办署理乐成地将习患上的“利他偏向”推广到捐赠资金等新场景中:基在这一人类组数据练习的AI,于捐赠使命中体现出更高的激昂大方度。
“这种似在儿童的进修方式——他们并不是被重复练习做某件事,而是经由过程不雅察怙恃与别人的互动,潜移默化地学会分享、眷注等社会举动。”论文合著者、华盛顿年夜学生理学传授安德鲁 梅尔佐夫暗示,“价值不雅更可能是‘被捕获’而非‘被传授’的。”
团队认为,怎样创立具备文化顺应性、能理解别人视角的AI,是当前社碰面临的主要课题。跟着输入数据的文化多样性及体量增长,这种要领有望帮忙开发出更贴合特定文化配景的AI体系。不外,该研究今朝仍处在观点验证阶段,将来还有需于更多文化情境、价值冲突场景和繁杂实际问题中进一步验证其可行性。
尤其声明:本文转载仅仅是出在流传信息的需要,其实不象征着代表本网站不雅点或者证明其内容的真实性;如其他媒体、网站或者小我私家从本网站转载利用,须保留本网站注明的“来历”,并自大版权等法令责任;作者假如不但愿被转载或者者接洽转载稿费等事宜,请与咱们联系。-PA集团官网