责军事力量并不是一个好主意
然而,人工智能已经影响了人类的生计,人们和企业认为,当由机器学习模型创建时,他们可以非常便宜或免费地获得通常由人类提供的产品。我们从艺术家和作家对人工智能生成的艺术和文本的强烈抗议中看到了这一点,也从那些决定解雇那些生成公司认为人工智能将创造的“足够好”内容的人的公司中看到了这一点。 美国政府目前正在成立监管委员会来研究这一问题,但政府法规的进展也非常缓慢。 这些委员会将把已经做过的事情作为应该做的事情的例子。您能看出哪里可能会导致问题吗? 不检查机器学习程序是否达到道德标准会产生什么后果? William Tracy: 首先关注艺术界。他们是那些钱较少且有能力改变政策的人。公司将通过律师提起诉讼并保护自己免受伤害。。一个孤独的艺术家会做什么,他的照片被人工智能重新创作并出售,或者一个作家拥有三本最新书的山寨版? 首先创建机器学习程序的人当然应该承担部分责任,但他们是使用它来重新创建为他人带来收入的产品的人吗? 使用该产品的人是否有罪,因为该产品是免费提 购买电话号码列表 供的,并且没有规则表明他们所做的事情是不道德或非法的?道德应该作为任何新技术设计的第一阶段,思考如何使用它、在哪里使用它,以及它可以影响谁。 用户隐私 机器学习模型如何给用户隐私带来风险? William Tracy: 机器学习模型是建立在大量预先存在的数据之上的。该数据可以是真实的,也可以是生成的。 当使用真实数据时,精确的数据有可能进入模型的输出。请记住,选择通过模型各层的内容背后并没有“智能”。这一切。
https://bybdirectory.com/wp-content/uploads/2024/01/Add-a-heading-3.png
都基于数学,因此没有什么可以阻止私人信息的传递,除非人类在模型中添加了权宜之计。 现实生活中的一个例子,也是人们发现图像生成模型从互联网上抓取艺术作品的一种方式,是艺术家签名不断出现在机器学习生成的图片中,即使原作者已经明确表示他们的作品这些系统不使用。 训练模型时确保数据隐私的最佳实践有哪些? William Tracy: 避免数据隐私问题的最好方法是在训练模型时不要使用私有数据。那么它就不可能穿过模型层并从另一侧出来。 人工或合成数据可用于填充训练数据集,因此用户隐私不存在风险。然而,当这不切实际时,剔除和控制原始数据集也可能有效。这需要创建模型的数据科学家做更多的工作(就像第一轮道德后果所做的那样)来确定在训练集中使用什么是可接受的,什。
頁:
[1]