• 财讯网
  • 主页 > 要闻 > 正文

    世界动态:实测:神乎其神的ChatGPT能否取代新闻工作者?

    2023-02-01 14:26:37  |  来源:财联社  |  编辑:  |  

    春节期间,一部《流浪地球2》点燃了全民的科幻热情,影片中的数字生命“图丫丫”就仿佛是人工智能的投射,集中了人们对人工智能的所有期待。

    而OpenAI去年年底发布的ChatGPT则让不少国内投资人的科幻热情得到了寄托,带动人工智能一词在A股市场持续刷屏。


    【资料图】

    很多人体验完ChatGPT之后,将其夸的神乎其神,例如体验感很真实,比目前通用的人工智能客服都更会“讲人话”,逻辑畅通,思路清晰……仿佛是电影中数字生命的现实版本。

    还有人更是忧心忡忡,ChatGPT可以模仿人类写诗甚至写歌,用不了多久,人类大规模失业可能就会出现!

    然而,多位人工智能界专家及其相关研究报告都在强调ChatGPT技术上所存在的壁垒,例如这一语言模型很难应用于精确或可信度要求高的工作之中。

    这一缺点并不难在实探中得到印证。这既是该项技术未来可能进步的方向,也可能为商业化设想提供了“负面清单”。

    假如你是一名财经编辑

    财联社编辑在亲身试用ChatGPT之后,让她大舒一口气的是:财经新闻还是得靠人来写。

    2020年,OpenAI曾在一篇论文中表示,其GPT-3生成的新闻文章样本,让人类很难识破是由机器生产的文章。

    这一点让人感到好奇,于是在近日实探中,我们向ChatGPT发送如下指令:请以一名专业的财经类主编身份点评一则报道。随之附上的是去年财联社关于全球富豪排行变动的一条新闻。

    不难发现,ChatGPT的回答虽然有条有理,但颇为死板,像是高中语文的阅读理解。

    此外,ChatGPT还在另一次测试中出现了张冠李戴的问题,当输入一篇短篇报道并要求ChatGPT进行扩写时,不仅出现了原文中从未有过的材料,更是出现了数字谬误。

    文中红线标划之处都是ChatGPT的即兴发挥,有关比尔盖茨、李嘉诚包括此后对欧洲、亚洲富豪的叙述都是新产生的文本。而据调查,所谓比尔盖茨在2022年减少350亿美元身价,实际上应该为290亿美元,350亿美元应该为他截至2019年累计捐赠的数额。

    在另一个问题的测试中,ChatGPT也坦诚了自己的局限。由于其储存资料的时间限制在2021年前,所有2022年以后发生的事情其实在它的“大脑”里都无法正确处理。

    人工智能确实能够生成一些几能乱真的新闻报道,但背后却仍需要人工对事实进行不断的核查。仅从这个角度来看,ChatGPT并没有解放多少生产力。

    而从其行文来看,其中并不带很多的感染力,这也让它在艺术创作方面无法与人类媲美。

    这就让这款人工智能有些进退两难:若从事专业写作,读者不得不质疑其准确性;而从事艺术创作,它又没有丰富的表现力。

    一致性问题

    ChatGPT是建立在Instruction GPT(GPT-3的分支模型)上的语言模型,依托于Transformer模型,与上一代RNN模型相比,在处理速度和多任务处理上实现革新。

    ChatGPT的语言模型在预训练阶段,被填鸭式塞进了过滤前容量达45TB的压缩文本,且过滤后也有570GB的海量数据,然后再通过多次的举一反三来增加准确率。

    在ChatGPT的逻辑里,“你”后面可以跟的字有不同的概率,可以是“你好”,也可以是“你们”等等,它需要做的是,就是回溯上文来推导下一个字最可能跟哪一个字。

    而以前的RNN模型则是通过标记海量的数据集,先教会人工智能什么是对的,再让其进行判断。如果说RNN模型是严格按照原文做阅读理解,那么GPT则做到了完形填空。

    这就使得以Transformer为基础的人工智能可以通过旁征博引来跳出“输入”的前提,这大大缓解了“教学压力”。

    当然,带来的后果也已经显现:“跳脱”的人工智能很可能用一个词改变整个语境。

    就如试验中出现的马斯克反转。在原文只给出马斯克因收购推特而导致特斯拉股票暴跌,并让他自己财富缩水的线索时,ChatGPT神来一笔地表示:马斯克对此并不悔恨,甚至很有信心。

    啼笑皆非的是,马斯克本人可能并没有这样想。

    而将这一问题深入思考,如果人们以后要求ChatGPT处理其它问题时,也出现了这样的情况怎么办?

    比如,相亲网站的智能客服回答客户时,AI突然来一句离婚率连年上涨的话怎么办?或是在合同撰写中,AI标注了错误的金额怎么办?

    被“玩坏”的ChatGPT未来在何处?

    大火之后,流量明星ChatGPT现在终于不得不陷入尴尬的境地:问的人太多,它回答不过来了。

    其团队苦心孤诣简化逻辑,提高计算速度仍难以满足人类的好奇心,此刻的ChatGPT如同被问烦了的人类,陷入了“自闭”之中。

    抛开它被吹捧的外衣,ChatGPT实际上依靠的仍是人工智能领域十分底层的技术,算法虽然有所改进,但其本身依旧受制于程序员圈定的逻辑和硬件支持之中。

    而ChatGpt本身也可能只是一个半成品,其在网上试用的最主要目的在于进行更多的测试训练,以便产生更多的有效标注数据。

    换句话说,你我现在都是ChatGPT的免费教练。

    值得期待的是,种种迹象表明,OpenAI很有可能在2023年推出GPT-4技术,将在GPT-3模型基础上继续优化。

    在获得了全球免费教练的“贴心指导”后,我们有理由相信OpenAI将会打造一个更具人性化,更智能的ChatGPT 2.0,并在商业中落地。甚至,我们也可以期待有一天ChatGPT可以真正从事需要高可信度的工作,而不会无辜地去捏造事实。

    但仅就ChatGPT而言,这头“新贵猪”可能还需要在风口再等一等。

    (来源:财联社)

    关键词: 人工智能 语言模型 神乎其神

    上一篇:    下一篇: