|
这并不是说让
Apr 1, 2024 23:04:33 GMT -8
Post by account_disabled on Apr 1, 2024 23:04:33 GMT -8
尤其是的工作将概述面对该算法的社会工作者如何根据基于光的指示器做出决定如果看起来有太多关于儿童福利的主动报告该指示器会向他们发出红色信号。危险。事实上这告诉你的是系统本身技术本身并不像你知道的那样容易修复哦好吧然后摆脱指标并把它们变成现实。更多的是一种描述性的文本形式。因为您正在处理的是一种远远超出实际代码本身的技术这也是达米尼在这里所要达到的目的。这是一个完整的社会技术系统。你不能认为人工智能是一个东西同时也认为存在人机交互它为系统如何运作和做什么提供了动画。 所以代码中写的内容我已经采取了这种立场有点无关紧要。它所做的以及它最终在世界上所做的事情在这里没有使用太多学术术语但从现象学角度来看才是真正重要的并且告诉我们系统实际上是什么。因此通过摆脱在人工智能技术方面去偏见是一种美德的观念通过摆脱系统存在技术修复的想法而不是坚持认为实际上这些系统都应该经过测试和理解在它们被推出之前就可能对整个社会 阿联酋数据 和人们的人权产生什么影响这可能会导致我们应用和部署更好的技术。至于我们如何利用技术来识别某些有害技术我之前提到的一个例子是我们如何使用街道测绘工具来了解摄像头的位置。 需要明确的是我们没有在那里使用图像识别算法。都是人。这使我们能够将志愿服务规模扩大到全球约人他们帮助我们用摄像头标记纽约市的每个十字路口。我认为这是一个非常引人注目的模型可以说明如何扩展激进主义和工作在技术方面将杠杆推向某种形式的正义和公平当然这是一种可以促进更多尊重的干预措施抗议的权利可能看起来像。我认为我的观点是关于技术的。这并不是说让技术解决它所造成的问题因为正如你所说问题是由技术的使用造成的。当然当你谈论的是有权制定政策有权制定法律有权进行逮捕或发动战争的机构所使用的强大技术时当然演员和演员的动机以及使用比技术修复更重要。但我也必须相信人工智能不会消失技术只会得到改进。
|
|