当心!你的数据可能正在歧视你业界
TNW中文站 3月14日报道
数十年来,各种应用和平台都在收集我们的信息,而在上周日的SXSW互动大会上,有一个重量级的研讨会专门探讨了如何利用数据来了解我们,以及如何借此对产品和服务进行调整。
在会议开始时,独立隐私安全专家阿什坎·索尔达尼(Ashkan Soldani)提到了IBM的一项软件开发进展,其目的是了解从叙利亚来到欧洲的人究竟是恐怖分子还是难民。这款软件可以借助多种数据来源计算出一个“恐怖主义得分”,从而判断某人参与恐怖主义活动的概率。
虽然这类工具背后的动机可以理解,但却极易被滥用,也非常容易犯错。
奥巴马政府前副CTO尼克尔·翁(Nicole Wong)引入了“负面筛选算法”的概念,他表示,当美国的一所著名高校的计算机系初期的筛选程序明显在无意中歧视了女性后,他们便改变了流程。
这次会议上还提出了其他一些例子:例如,Facebook可以根据用户的社交图谱判断其财务价值;而研究也表明,谷歌广告向女性展示高收入职位的概率更低。
所有与会专家都承认,要解决这些问题需要克服巨大的挑战,而且缺乏确定性的解决办法。立法可能达不到目的,因为趋势变化得太快,我们甚至无法掌握立法所面临的全局背景。
企业可以更加努力地检验他们的系统和流程,但有的时候,即使是善意的流程也有可能产生意外的问题。专家认为,的确有必要在计算机课程中增加数据伦理教育。
即便这些措施不太可能完全解决问题,但我们的确在采取更加统一的措施,以期解决这些问题。通常而言,数据驱动的决策都是隐藏的,而由此产生的威胁也不会被我们视作紧迫问题。
记者朱立亚·安格文(Julia Angwin)说:“你可能并不知道你为什么没有得到那份工作,你或许永远不会知道,其实是因为数据歧视了你。”
很显然,我们已经到达了一个社会转折点——在这个阶段,我们必须共同思考我们今后希望今后的数据收集和使用将会向什么方向发展。我们必须花些时间来了解我们生活中的数据所产生的潜在影响。(长歌)
1. 遵循行业规范,任何转载的稿件都会明确标注作者和来源;2. 的原创文章,请转载时务必注明文章作者和"来源: ",不尊重原创的行为 或将追究责任;3.作者投稿可能会经 编辑修改或补充。