豪迪群发器 » 热门资讯 » OpenAI 是怎样被 10 亿美金收买了“非盈利”灵魂的

OpenAI 是怎样被 10 亿美金收买了“非盈利”灵魂的

发布时间:2021-9-8 ┊ 文章作者:豪迪群发

近日,一篇名叫“How OpenAI Sold its Soul for $1 Billion”(OpenAI 是怎么由于 10 亿美金出售自个的生命)的内容在 Reddit 上造成了强烈反响。

文章内容创作者 Alberto Romero 批判著名的非盈利组织 OpenAI 为了更好地金钱而欺骗自身固有的“为人类惠及”服务宗旨。

OpenAI 创立于 2015 年,开创之初便将自身精准定位为“非营利性组织”,总体目标是以可靠的方法完成通用性人工智能(AGI),使全人类公平盈利,而不是为集团公司的公司股东造就盈利。

但在 2019 年,OpenAI 违反了它的初心,变成了一家名叫“OpenAI LP”的盈利性企业,由一家名叫“OpenAI Inc”的总公司操纵。这时候,OpenAI 变成一家有盈利限制的组织,公司股东的回报率被局限为不超过初始项目投资数额的 100 倍。换句话说,假如你项目投资 1000 万美金,你数最多能获得 10 亿美金的收益。

OpenAI 的构造改了以后,没好多个月,微软公司就投资了 10 亿美金。而微软公司与 OpenAI 的合作关系,是根据一个关键前提条件,即微软公司有权利将 OpenAI 的一部分技术性商业化的,例如 GPT-3 与 Codex。2021年 5 月末,微软公司的官网便报导了她们用 GPT-3 的新技术颠覆式创新內部商业服务商品,为客户服务:

当 OpenAI 因金钱关联与大型的商业服务企业战略合作协议书,大家还能坚信它们会信守承诺,从全人类的福址考虑来发展趋势人工智能吗?亦或是,技术性终究会沦落金融资本的战俘,情结也逃不过被欺骗的运势?

金钱自始至终排在第一位

文章内容创作者 Alberto 强调,OpenAI 的技术性欲望,决策了它逃不过要与资产协作的命运

做为一个高精准定位的人工智能科学研究试验室,OpenAI 的豪情壮志规定它务必获得充足的网络资源适用,在其中,金钱自始至终是排在第一位。比如说,今年夏天火爆各大网站的 GPT-3,在培训环节就已耗费了大概 1200 万美金:

GPT-3 是一个规模性语言模型,光参总数就已做到 1750 亿。如果不寻找买卖,她们难以得到那么深厚的科研经费预算。因此 ,在她们意识到必须项目投资时,发觉微软公司那时候正等待为自己给予云计算技术,阴谋是微软公司到时候能将他们并未完善的系统软件商业化的。这时候,一方能够得到云计算服务器,一方能够实现赢利,不妨一试呢?

早在 2020 年 2 月,麻省理工大学高新科技评价的新闻记者 Karen Hao 就刊登了一篇文章,研究了 OpenAI 与微软公司的协作。Karen Hao 在“The messy, secretive reality behind OpenAI’s bid to save the world”一文中明确提出,历经对 OpenAI 內部职工的多次访谈,她发觉 OpenAI 的公布声称內容(完成通用性人工智能、使人类均值获益)与里面的运营管理方法存有不一致之处。

为何一家以惠及全人类为基本的企业忽然必须大批量的个人资产?要了解,从成立之初,Open AI 就得到了埃隆马斯克、Sam Altman 与 Peter Thiel(Paypal 创办人)等 10 亿美金的个人项目投资。OpenAI 从非盈利到盈利的变化,不但导致了新闻专业主义的不解,也在企业內部遭受了指责。

莱纳人工智能研究室的优点 Oren Etzioni 在获知微软公司投资 OpenAI 时,那时候即表明质疑心态,称:“我反对非营利性组织不具有市场竞争力的见解…… 假如经营规模更高、资产大量就意味着(这一组织)会发展趋势地更强,那 IBM 就不易被挤下第一名的部位。”

Vice News 的著名软文写手 Caroline Haskins 也觉得,OpenAI 早已违反了她们曾经的重任:“(大家)从来没有用过靠风险性投资人来改进人类的运势。”

大家必须认可,OpenAI 将探究主要放到必须由更高算率与更高数据驱动的神经元网络上,这必定必须许多金钱。可是,Alberto 也强调,如 Oren Etzioni 所言,金钱并并不是获得最领先的 AI 成效的唯一方式。大量情况下,你需要的是富有创造力的念头,而不是靠堆大量的算率,或大量的数据信息。

OpenAI 是怎样沦为的?

2019 今年初,早已变成盈利性企业的 OpenAI 公布了一个强有力的语言模型 ——GPT-2,可以生成做到人类水准的文字。虽然 GPT-2 在那时候是一个很大的飞越,但还有很多科研工作人员将其形容为一只“风险的怪物”,没法与大家共享资源。例如,她们担忧 GPT-2 会被用于“散播虚假新闻、垃圾短信与虚假信息”。

但这一份担忧迅速就被消除。GPT-2 沒有被普遍证实有乱用的风险性,因此科学研究工作人员或是陆续应用了 GPT-2。

罗格斯大学的专家教授 Britt Paris 曾评价,GPT-2 的问世好像并不是为了更好地惠及人类,反倒好像 OpenAI 运用了人工智能很有可能会给人类社会发展提供的焦虑,进而造成新闻媒体的留意。她们觉得,GPT-2 并并不像 OpenAI 宣称的那么强劲,可是,从销售的视角看来,她们能够吸引住媒介的关心。

假如 GPT-2 沒有她们声称的那样强劲,那为何让它看上去更风险呢?Alberto 觉得,单从这一点看来,OpenAI 就早已沒有遵循自身的道德标准。

2020 年 6 月,GPT-3 公布,比 GPT-2 变大 100 倍,更强劲,实质上或许更风险。但 OpenAI 好像觉得新系统充足安全性,能够与全球共享,因此根据 API 公布。她们安装了一个替补名册来逐一核查浏览要求,但这并不可以自动控制系统最后被用以哪里。

在“Language Models are Few-Shot Learners”一文中,她们乃至认可,假如 GPT-3 掉入恶人之手,很有可能会产生欠佳的不良影响,例如“错误报告、垃圾短信、钓鱼攻击、乱用法律法规和政府部门程序流程、非法行为期刊论文创作和社会工程推托”,或加重性別、人种成见。

毕业论文详细地址:https://arxiv.org/pdf/2005.14165.pdf

她们了解到难题的存有,但依然容许客户系统对开展实验。有关根据 API 公布,OpenAI 那时候的答复是“付款她们下面的 AI 科学研究、安全性与制度制订等工作中”。

一句话汇总,就是:“承担”维护人类免遭 AI 损害的企业决策让我们应用一个可以导致虚假信息和风险成见的系统软件,便于它们能够付款高昂的维护费。这或是“对每个人都是有使用价值”吗?

因此,那时候社交媒体上快速就产生了有关 GPT-3 很有可能导致的不确定性问題的猛烈探讨。Facebook 人工智能科学研究的责任人 Jerome Pesenti 那时候就写了一条文章,在推原文中举了一个事例,提到 GPT-3 很有可能会生成加重人种与性别歧视倾向的文字:

UC Berkeley 的计算机专业学员 Liam Porr 还用 GPT-3 写了一篇能提升创作效果的文章内容,与定阅者共享,但沒有表露在其中的方法。本文在 Hacker News 上排名第一。假如 UC Berkerley 的在校大学生都是会想方设法用人工智能撰写的创作蒙骗任何人,那麼一群有故意的人会干什么呢?

除开散播虚假新闻,GPT-3 的另一个伤害是散播人类没法划分的虚假新闻。这一点也被 OpenAI 在“Language Models are Few-Shot Learners”一文中认同、乃至注重了:

杨元庆:联想在未来 3 年内研发投入翻番

2021 联想创新科技大会今天举办。联想集团董事长兼首席执行官杨元庆做了《新 IT 新引擎》的开场演讲。

[M]ean human accuracy at detecting the longer articles that were produced by GPT-3 175B was barely above chance at 52%. This indicates that, for news articles that are around 500 words long, GPT-3 continues to produce articles that humans find difficult to distinguish from human written news articles.

(人类在检验 GPT-3 175B 生成的很长文章内容时的均值准确度仅稍高于 52%。这说明,GPT-3 可以再次生成人类无法分辨的、长短约为 500 字的新闻报道文章内容。)

2021年她们也做过相似的事儿。

几个星期前,OpenAI、GitHub 和微软公司协同公布了一款编程工具 Copilot,这款专用工具根据 GitHub 以及他平台的源码,可依据上文提醒为程序猿全自动撰写下面编码!被称作是结对编程的虚似版本号。

结对编程是一种普遍的灵巧开发软件技术性 —— 即2个开发者在同一个新项目上携手并肩合作,轮着撰写源代码并查验合作方的輸出。

撇开很有可能对开发人员导致的潜在的威协不谈,这款专用工具仅公布几日后便受到了强烈的批判,缘故是它在未经同意许可的情形下,应用了公共性的 Github 储存库的开放源码。

那时候,GitHub 的CEO Nat Friedman 发布这则信息后,Hacker news 上早已有许多朋友在探讨,Copilot 很有可能会出现不确定性的法律纠纷。

例如,一位网民就提出了好几个疑惑:

  • AI 生成的编码不属于我?或是 GitHub?

  • 生成的编码归属于哪一个许可证书?

  • 假如生成的编码侵权行为,由谁来担负法律依据?

一位从业开源系统工作中的开发人员 Armin Ronacher 立即在 Twitter 上共享了一个实例,说明 Copilot 的确存有抄袭著作权编码的很有可能。

下边也是有一位网民评价说:“大家也发觉 Copilot 立即拷贝了一段 GPL 编码,这表明它在商业服务应用上是有风险性的。

实际上,即使 Copilot 沒有逐句复制代码,也会形成一个道德难题:GitHub 或是 OpenAI 等企业是不是有权利应用千余名开发者的开放源码对自身的操作系统开展训炼,并将这种体系的所有权卖给开发者自身?

一位开发者兼游戏设计师 Evelyn Woods 对于此事评价说:“她们似乎在把开源系统当做一个笑话!”

大家还能指望 OpenAI 吗?

OpenAI 如今真实的目的是啥?

Alberto 传出疑惑:

难道说她们现已与微软公司的收益捆缚在一起,以致于忘记了最开始“改善生活”的服务宗旨?或是她们确实觉得自已有着较好的专用工具和优秀人才能够独自一人发展这条路面,这是不是代表着 OpenAI 出售了自个的生命?她们是依照自身的想法来基本建设将来,或是考虑到到越来越多人?更主要的是,她们是不是想从当中获得巨额利润?

OpenAI 在迈进更繁杂人工智能的城市道路上占有了主导性,自然,也是有很多别的有潜能的组织在做相应的工作中,这种组织并沒有与钱财造成立即的联络,因此也得到了外部普遍的关心。

就现在看来,大中型科技有限公司的总体目标好像是并没有创建一个达到科学求知欲的通用性人工智能,也不是创建一个最安全性、最承担、最道德的人工智能。她们的重要任务是挣钱!

自然,这实际上并不违反规定,但在道德上必须当心,由于她们也许会不惜一切方式去达到目标,而这一全过程也许会对大部分人造成不良危害。

以前 OpenAI 创始人埃隆马斯克・埃隆马斯克(Elon Musk)就曾指责其称:OpenAI 应当更为对外开放

OpenAI 早已不会再“Open”

在 Reddit 上,Alberto Romero 的论文也造成了朋友的探讨。

网民陆续称:OpenAI 早就应当改名为“ClosedAI”。

或许 OpenAI 企业仍在坚持不懈她们最开始的重任,但她们也应当意识到:不可以为了更好地到达目标而不顾一切,由于不规范的方式也许会危害更长远的总体目标。

不容置疑,科学家们都想要完成通用性人工智能。科学的求知欲是沒有底限的,但咱们也需要对不确定性的风险性提高警惕,如同核反应是不简单的创造发明,但核反应定时炸弹并不是。

换一个视角而言,大家乐意为了更好地完成通用性人工智能而投入一切成本吗?最少从道德上,很多人是不愿意的。科学家们也许更应当注意到这一点。

大家已经迅速地升级这种深入更改我们日常生活的技术性。可是,假如只关注自身的利润和总体目标,不论是 OpenAI 或是别人,最终都需要对不良影响担负非常大的义务。

张近东退出苏宁易购法定代表人,由总裁任峻接任

企查查显示,近日,苏宁易购发生工商变更,张近东退出法定代表人,由总裁任峻接任