page contents

谷歌Docs的人工智能写作自动纠错功能现在遭到攻击

谷歌Docs使用人工智能算法来建议编辑,这使得写作更具包容性。但也有人讨厌并抨击这种算法。

attachments-2022-05-xe21a5v4627329c57d513.png

谷歌Docs使用人工智能算法来建议编辑,这使得写作更具包容性。但也有人讨厌并抨击这种算法。

语言模型在谷歌文档中主要用于Smart Compose等功能;当用户输入时,它会建议单词自动完成句子。Chocolate Factory 现在想要更进一步推出“辅助写作”,这是另外一个人工智能驱动的系统,旨在帮助人们更快地写出更有力的文件。

算法更偏向中性词

Vice报道称,并不是每个人都喜欢被算法引导,有些人觉得它的“包容性语言”能力令人恼火。

像“policemen”这样的词可能会触发建议,模型会建议将其改为更中性的词,比如“police officers”。这种中性词的建议可以理解,但有时候,它的建议可能会有点荒谬。例如,它建议将“landlord”一词替换为“property owner”或“proprietor”。

谷歌发言人称:“辅助写作依赖于数百万个常用短语和句子来自动学习人们如何交流,同时它们也可以反映人类的一些认知偏见。我们的技术一直在进步,我们在尝试找到一个完整的解决方案,来识别和减少所有不必要的单词联想和偏见。”

AI的公平是复杂的

机器学习模型中的公平性被证明是一件难以衡量和改进的事情。

为什么?

首先,学术界对公平有21种定义。公平对不同群体的人有不同的含义。在计算机科学中被认为是公平的东西可能与在社会科学或法律中被认为是公平的东西不一致。

算法对不同社会群体的影响是不同的

哲学家约翰•巴斯尔(John Basl)说:“我们目前正处于危机时期,缺乏解决这一问题的道德能力。试图解决公平问题是困难的,不仅因为人们对公平的定义难以达成一致,还因为一个应用程序的解决方案可能不适合另一个应用程序。”

IBM:伦理是企业采用人工智能技术的主要障碍

IBM首席执行官 Arvind Krishna说:尽管人工智能是未来,但他对在现实世界中部署其巨大的能力很谨慎。是啊,这就是为什么华生没有完全意识到。

他在《华尔街日报》采访时表示:“我们大概只占(人工智能)发展的10%。今天的数据量如此之大,我们知道人类无法处理所有数据。像分析和传统数据库这样的技术只能走这么远。”

当前,我们已知的唯一可以从数据中获得洞察的方式就是人工智能。目前消费者已经接受了它,接下来就是等待企业接受。当然,企业也正在面临挑战,例如机器学习模型中存在偏见或技术使用不公平。

“我们需要解决道德问题;我们必须确保过去所有的错误不会重演;我们必须了解人工智能的生命科学;否则我们会创造出一个怪物。当然,我对此保持着非常乐观的态度,未来我们可以解决所有这些问题。”

更多相关技术内容咨询欢迎前往并持续关注六星社区了解详情。

想高效系统的学习Python编程语言,推荐大家关注一个微信公众号:Python编程学习圈。每天分享行业资讯、技术干货供大家阅读,关注即可免费领取整套Python入门到进阶的学习资料以及教程,感兴趣的小伙伴赶紧行动起来吧。

attachments-2022-06-V9APRkdl62a981ba3f26a.jpeg

  • 发表于 2022-05-05 09:35
  • 阅读 ( 581 )
  • 分类:行业资讯

你可能感兴趣的文章

相关问题

0 条评论

请先 登录 后评论
轩辕小不懂
轩辕小不懂

2403 篇文章

作家榜 »

  1. 轩辕小不懂 2403 文章
  2. 小柒 1478 文章
  3. Pack 1135 文章
  4. Nen 576 文章
  5. 王昭君 209 文章
  6. 文双 71 文章
  7. 小威 64 文章
  8. Cara 36 文章