还记得因为文笔太好被 OpenAI 宣布暂缓公开的自动写作 AI 模型 GPT2 吗?近日 OpenAI 释出了一个更强大的新版本,表示将密切关注人们的使用情况。
今年 2 月初,马斯克(Elon Musk)创立的非营利研究机构 OpenAI 宣布旗下正在研究一款自动写作 AI 模型 GPT2,但因为 GPT2 写作的文笔实在太好,将延后公开研究,花更多时间讨论可能产生的效应以避免潜在滥用。
由于延后的选择相当罕见,此举也引发外界许多讨论;一些人支持 OpenAI 的谨慎决定,一些人则认为宣传有多危险单纯只是在炒新闻。
无论如何,OpenAI 近期释出了 GPT-2 新版本的内容。在 AI 工程师 Adam King 的协助建置下,你现在可以前往网站亲身体会它的作用。
▲ 粗体字为人工提供给 AI 的部分。(Souce:Talk to Transformer)
据了解,OpenAI 一共为 GPT-2 模型开发了 4 种大小版本,2 月初首次公布的是 GPT-2 的小型模型(124M),5 月公布的则是中型模型(355M),此次公布的则是进阶模型(774M)。
尽管仍不完美,但与先前公布的中小模型相比,774M 的写作明显更为流畅,也更难看出是由机器所编写,这也不禁让人好奇有 15.58 亿个参数、使用 800 万个网站训练的大型模型,所写出来的文章究竟会是什么样子?
OpenAI 目前正和 4 家领先的研究机构合作,针对模型造成假新闻、遭极端主义滥用的可能进行分析,除此之外他们也将观察人们使用 774M 模型的方式,来决定是否要按照原定计划,在未来数个月内发布 1558M 的完整模型。
- GPT-2: 6-Month Follow-Up
- This AI-powered text generator is the scariest thing I’ve ever seen — and you can try it
(首图来源:pixabay)
延伸阅读:
- 开发的自动写作 AI 模型文笔太好,OpenAI 罕见选择延后公开研究