大发bet娱乐大发bet娱乐


大发bet官方下载

谷歌首席执行官:有理由担心人工智能不能先做坏事,然后再完善它们。

    无论人工智能的研究和开发是好是坏,我相信现在没有人能完全断言。但是科学家们仍然需要采取预防措施,防止人工智能的未来会发生什么。据华盛顿邮报报道,今天(12月15日),全球领先的AI公司Google的CEO Sundar Pichai在本周的一次采访中说,对滥用AI技术的担忧是“非常合理的”,但是技术行业应该被信任来负责任地管理其使用。

    面试细节:

    在周二下午的一次采访中,Sundar Pichai说,新的人工智能工具,比如无人驾驶汽车和疾病检测算法,要求技术公司设置道德障碍,并思考什么在滥用技术。

    Pichay说:“我认为科技公司必须意识到,他们不能先创建人工智能工具,然后再对其进行改进。”我认为那行不通.”

    同时,Pichay说,技术巨头必须确保人工智能及其应用不会伤害人类。他说他对人工智能的长期益处持乐观态度,但他对人工智能潜在风险的评估与一些技术评论家的观点是一致的。这些批评者认为,人工智能可能被用来授权侵入式监视、散布致命武器和错误信息。SpaceX和Tesla的创始人Elon Musk和其他科技公司的高管甚至做出了更可怕的预测,称人工智能“可能比核武器更危险”。

    人工智能技术支持谷歌的各个方面,很多企业都离不开人工智能技术。最近,谷歌关于如何部署人工智能的决定也引发了员工不安。

    在Pichai呼吁科技公司进行自我监管之前,他参加了国会听证会,当时立法者威胁要对技术滥用实施限制,包括利用技术传播错误信息和仇恨言论。今天,Pichai承认人工智能带来的潜在威胁,这是至关重要的,因为这位印度出生的工程师经常吹嘘自动化系统的世界形状,这种自动化系统可以在没有人工控制的情况下学习和决策。

    皮卡里在接受采访时说,世界各国的立法者仍在努力理解人工智能的影响以及政府监管的潜在需要。有时我担心人们低估了中长期可能发生的变化的规模,我认为这些问题实际上非常复杂。其他技术巨头,包括微软,最近也接受了AI的监管,既来自于制造该技术的公司,也来自于监管AI使用的政府部门。

    一百二十三

    下一页

    友情提示:支持键盘左右键翻页

欢迎阅读本文章: 冯老师

大发888官方

大发bet官方下载