一枚架构师也不会用的Lombok注解
王超:刚刚小川跟向洋讲到,从哲学来看,人还有没有独立意志、又从哪儿来。还有一个研究说,潜意识比表现出的意识要强几万倍,每天吸收的信息都在影响我们的潜意识,所以算法对于我们判断或者决策的影响会越来越大。小川,你可以就这个问题再谈两句。 王小川:Harry提到,不知道机器怎么做决策,我稍微互动一句话,人也不知道自己怎么做决策。 王超:程立有没有一些要分享的内容?针对这个问题。 程立:小川和Harry讲的比较深,我回到更加实用的范围来讲,我拿区块链举个例子,区块链出来的时候可以做很多事情,也有很多人用区块链圈了很多钱,对我们蚂蚁金服来讲,一些事情做还是不做,这是非常现实的问题。我们当时提出蚂蚁金服做区块链的三要和三不要,通过这样的方式来确保在这个方面不会出问题。我之前在蚂蚁科技的时候也犯了很多的错误,错了以后就要不断的反思,不断的完善企业的规则体系。 此外,涉及到某些基础的研究,要做还是不做呢?的确这里有一些基础技术,潘多拉的盒子到底要不要打开,这个可能是更深的问题。对企业来说,如果往基础技术去看的话,我这里姑且还没有碰到这样的问题,主要是在服务客户形态当中,怎么把这个服务规范做进去。 沈向洋:我还是想讲,特别是大公司,还是有这样的责任,就是在AI伦理这件事情上。举个例子,最近的外卖到底多少分钟?技术上今天可以做,但是公司有这种社会责任,必须要去面对这样的问题,而且会需要做一些非常痛苦的决定,很有可能是对他的业务不利的决定。 ……
在创新这一部分结束后,另一部分企业技术高管们,则着重讨论了开源的问题,京东副总裁何晓东主持了这次的会议。 技术的伦理问题王超:另外一个问题,我们谈一谈关于技术的伦理问题,特别是AI的发展。怎么看待AI与人类的关系?小川你先来。 王小川:一旦讨论伦理,最容易讨论到数据隐私问题,今天不去展开。说回AI,虽然AI对数据要求高,但我们还是把它分成两个阶段来看,第一阶段是,机器已经开始帮人做决定,那最后做的这个决定能否让每个人真正向善和变好。我们现在看推荐引擎、推荐的视频,每个人肯定都很开心,因为能满足你的需求,但可能就沉沦了。我以前刷这种推荐视频,一天刷70分钟,一个月下来好像什么都没有干,完全陷入其中。这里技术满足了需求,但那之后,技术是否能让个人或组织是否得到成长,这是个挑战。 第二个阶段,技术已经能够让你成长,但就出现了新的伦理问题。以尤瓦尔的《未来简史》为例,它提到医疗在发展过程中,需要把更多的个人隐私贡献给机器。里面的一个人物茱莉做了乳腺手术,因为他们在观察过她的基因后,认为她患癌症的概率比别人大好几倍。这个在西方得到一片赞誉,都觉得她特别勇敢。但假设茱莉不擅长做决定,那机器能否再做一步,询问她是否把决定权交给它,那就是机器帮你做决定了。人会变得更健康,但人的自由、自主性就开始下降了。 今天我们都在用百度地图,大家在开车的时候已经低开高走了。因为在用地图时,我们已经开始无脑使用,机器告诉你走哪里,你就走哪里,它的全局数据比你的准,你算不过它。这时候机器开始进行全局统筹,与人做沟通,不给你全部信息,只给你局部信息,告诉一半人这条路不堵,告诉另外一半人,那条路不堵。这个时候决策权不在我们手里,已经交给机器了。不管生命健康还是交通出行,从恶意到善意的决策,人类一直在丧失自己做决策的能力和机会。 以后我们的决定有50%以上由机器做,我们现在面临的困境是,该怎么去突破,这个事情我现在也没有答案。但是我是一个机器主义者,机器把人取代了,机器升级完了,生成人类的下一代,也挺好的。就像埃隆·马斯克讲的,人类是机器的Preloader,这种解答可以让自己心安一点,作为一个技术人可以这么想。总体来讲,机器做决定与人做决定,带来了人的自由这样的矛盾,除去隐私、机器恶意不谈,这些都会带来人的意义的变化,这是需要思考的。 王超:这个问题你一定要说一下。 沈向洋:首先小川讲得非常好,做决策的伦理是非常重要的一点。不要讲AI伦理了,比如说核武器,毫无疑问,今天有核武器,但要不要扔,这里就有伦理的问题。
第二,我前面提到了,可解释的人工智能有必要做。因为你如果不理解它,就很难去下判断,即这件事该不该做。在国外对AI的伦理讨论非常多,国内也有很多人在做,如果能对标国外一个机构,有100多家公司来参与,大家来讨论、正视这个问题,才能解决它。 (编辑:唐山站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |