据外媒新闻,两份披露均以公司的 10-K 表格形式提供。这些是法律要求公司每年提交的标准化文件,使投资者能够全面了解其业务和最近的财务状况。在标题为“风险因素”的部分中,谷歌的母公司 Alphabet 和微软首次提到了 AI。
来自 Alphabet 上周提交的10-K:
“新产品和服务,包括那些包含或利用 AI 和机器学习的产品和服务,可能会引发新的或加剧现有的道德,技术,法律和其他挑战,这些挑战可能会对我们的品牌和对我们的产品和服务的需求产生负面影响并对我们的收入和经营业绩产生不利影响。“
来自微软去年 8 月提交的 10-K :
“AI 算法可能存在缺陷。数据集可能不足或包含有偏见的信息。微软或其他人的不当或有争议的数据实践可能会影响 AI 解决方案的接受程度。这些缺陷可能会破坏AI应用程序产生的决策,预测或分析,使我们面临竞争伤害,法律责任以及品牌或声誉损害。一些 AI 场景存在道德问题。如果我们启用或提供由于其对人权,隐私,就业或其他社会问题的影响而引起争议的 AI 解决方案,我们可能会遭受品牌或声誉损害。“
总的来说,这些披露并非令人惊讶。“风险因素”部分的想法是让投资者了解情况,同时减轻未来可能指责管理层隐藏潜在问题的诉讼。因此,它们的范围往往非常广泛,甚至涵盖了企业可能出错的明显方式。
但这些公司只是指出 AI 作为一个潜在的因素现在。毕竟,两家公司多年来一直在开发AI产品,从 2009 年开始的谷歌自动驾驶 计划到微软与 Cortana 等对话平台的长期合作。这项技术有足够多的机会造成品牌损害,并且在某些情况下已经存在。还记得当微软的 Tay 聊天机器人在推特上发布并在不到一天的时间内开始大肆宣传种族主义废话吗?多年以后,它仍然经常被引用作为 AI 出错的一个例子。
然而,你也可以说,公众对 AI 的认识及其潜在的不利影响在过去一年中已经大大增加。谷歌与五角大楼在 Maven 项目下的秘密工作,亚马逊有偏见的面部识别软件,以及 Facebook 对剑桥分析公司丑闻的算法无能等丑闻都将严重执行的 AI 问题带入了聚光灯下。
微软和谷歌已经增加了对风险的防范:例如,微软正在讨论面部识别软件需要加以监管,以防止潜在的危害,而谷歌已经开始与政策制定者和学者就 AI 治理进行交流。
【来源:开源中国】