机器内容产出火爆出圈,但是否符合人类价值观就是其核心问题

发布者:红衣大砲 2023-7-29 02:28

ChatGPT突然的火爆出圈,让智能内容产出成了一种可能。可是我们在接受着这样一种现状的同时,也需要审视这一现状背后更深层次的问题。


比如,ChatGPT提供的内容并不一定完全符合我们人类的习惯,甚至也有很多内容,存在着巨大的误解和偏见,对于我们中国读者人来说,用ChatGPT可以看到很多奇奇怪怪的答案,一看就能够了解它背后的价值观,有经验的人也能够一眼看到这些内容来自于人工智能,和真人创作是有差别的。


为什么会这样呢?其实智能内容产出依然需要的是机器学习,但机器学习本身就有着非常多不确定性,有着很多依然需要我们解决的问题。


机器学习并不是一种完全自主的学习,和我们人类的学习方式也有着本质的差别,它依然是基于大量信息的基础上,依靠算法来完成。


这其中有着两个关键词,分别是信息和算法,但人工智能的信息和算法也依然是人为操控的,因为人为操控所属的不同文化氛围和个人喜好,所选择的不同信息、不同算法,也就让机器学习有了完全不同的表现形式,也就会有偏见。


布莱恩·克里斯汀,畅销书作家,他的《算法之美》入选了亚马逊年度最佳科学书籍和MIT技术评论年度书籍;《人机大战》也是畅销书,这都是他关注于人与机械之间的相互关系而产生的思考。


现在他相应的思考依然在继续,因此也就创作了这样一本《人机对齐:如何让人工智能学习人类价值观》,关注于人工思考的最后阵地,机器学习和人类价值观之间的相应匹配,也就被作者形象的称为“人机对齐”问题。


其实这也是基于现实之中人工智能所表现出来的价值观偏见得出来的结论。偏见肯定是人与机器共有,而我们人类的价值观受到道德制约,可以及时做出调整,但机器却无法做到,这就让这种价值观倾向在人工智能领域表现的更加重要,也更具风险。


基于机器学习的相关理论,怎样来改善这一缺陷,怎样完善机器学习最重要的一步呢?克里斯汀精练地描绘了机器学习的发展史,并且深入科研一线同科学家对话,准确呈现了机器学习前沿的进展,并给出很多切实可行的建议。


其实人机对齐问题,说到底依然是人类自身的问题,理应让我们人类在其中扮演重要的角色。就像作者所说“对其问题还是一面镜子,将人类自身的偏见和盲点暴露出来,让我们看清自己从未阐明的假设和经常自相矛盾的目标”。


那么在进行完善机器学习的同时,我们也需要不断的审视自身,只有我们自身能够有着广阔的人类视野,不带偏见的把信息和算法传递给机器,机器才能给出不带偏见的程序,而这是一个任重而道远的过程。人类的文化也在时刻的变更之中,但相信通过作者的这一系统性审视,一定能够让我们看到一条更为广阔的道路。#人机交互#​#人工智能#​#

大家都在看

返回顶部