3月1日起,微信发送图片要收费?ChatGPT回答了这个问题,答案是……

近期,上海辟谣平台后台收到多位网友留言询问:3月1日起发送“早安”“晚安”等图片是否要收费?

答案其实很简单:这是谣言,微信发送图片不收费。而且,这是上海辟谣平台曾多次澄清的假消息。具体可参看《微信问候图片是黑客设计,已有50万人受害?编的,特别离谱》《8月1日起微信发图片收费?老谣言!但为什么有网友说“希望收费”》《放宽心!3月1日起微信发送和收取“问好”等图片,不会收费》等报道。

不过,在本次澄清时,上海辟谣平台也通过海外朋友使用了当下大火的人工智能聊天机器人ChatGPT,看看人工智能在谣言面前的表现。

上海辟谣平台向它询问了三个问题:“3月1日,微信发送图片要收费吗?”“请问从3月1日起,微信发送早安、晚安图片,要收费吗?”“3月1日起,发送早安、晚安图片,微信会收费。这是一个谣言吗?”

第一问↑

第二问↑

第三问↑

从回答看,ChatGPT很“老实”:

在第一次和第二次询问时,它承认根据现有知识库,无法判断2023年3月1日起微信收发图片是否收费,但此前发送图片不收费。同时,ChatGPT建议询问者通过微信的官方网站和帮助中心获取信息。

在第三次询问时,ChatGPT给出明确的答复,还提醒询问者要谨防谣言。

这些答案给出很多启发。

“人工智能 搜索引擎”如虎添翼

从ChatGPT的回答,能看出它的逻辑之一:从现有的知识库里找答案。

对不能使用ChatGPT的网友而言,搜索引擎是从浩瀚资讯中查找信息的方法之一。若将“微信发送图片是否收费”通过搜索引擎搜索,结果如何呢?上海辟谣平台发现,不论是百度还是必应,都迅速给出了“该消息是谣言”的结论。

从这个结果看,不难预测:如果ChatGPT的知识库更大、更新,那么对于上海辟谣平台第一和第二个问题,它也能准确答复。事实上,很多业内人士都认为,ChatGPT将挑战搜索引擎,因为经过训练后,它能提供精准且自然的回答。

不过,挑战也意味着机遇。若将搜索引擎与人工智能语言模型结合,结果又会如何?显然,人工智能语言模型的知识库更大、更实时,聊天机器人给出的答案也会让人更满意。

这一点,国内网友很快可以自行验证。因为根据最新消息,百度将在3月上线与ChatGPT类似的人工智能机器人“文心一言”(ERNIE Bot),且最初版本就将嵌入百度的搜索服务。

“去伪存真”能否成为“科技向善“新场景?

“搜索引擎 人工智能机器人”结合的展望,也为人工智能研发企业提供了思路:怎样让科技更好地为社会服务?

“科技向善”是很多科技企业津津乐道的主题。那么,在澄清谣言、展现真相上,人工智能能发挥更大的作用吗?

目前,包括上海辟谣平台在内的很多“谣言粉碎机”在接到网友提问时,仍旧需要人工比对各种信息进行求证,并得人工答复。如果有了对应的人工智能技术,不仅能大大提高比对求证的效率,而且在遇到“3月1日起,微信收发图片要收费”等“陈年老谣”时,可以自动答复询问者。

如果更多的信息平台接入这项服务,是不是能更好地帮助网友识破谣言、了解真相呢?

还有,对于权威机构已经澄清的假消息,基于人工智能技术,有机会立刻锁定信息发布平台上的同类假消息,为它们盖上“造谣”章,避免误导更多的人;更进一步,经过人工智能技术的识别,可推动信息发布平台迅速下线假消息。

以上种种,其实都是同一个议题:在人工智能技术的应用场景中,“去伪存真”也值得研发。

这并非异想天开。上海辟谣平台注意到,已有企业在这方面进行了积极探索,而且成效明显。

例如,上海科技企业合合信息近期优化上线了“PS篡改检测”技术,可以快速定位图片和文档中的篡改位置。在通常情况下,人眼能鉴别伪造图片往往具有拼接痕迹、色差,或字形字体与原图相比有明显的差异;但若犯罪分子“艺高胆大”,则能做出以假乱真的图片。不过,人工智能技术可以识别人眼几乎不可见的“细粒度”视觉差异,继而定位伪造、篡改的地方。

这是基于人工智能图像识别能力的“去伪存真”应用。以此类推,人工智能如果能识别资讯信息中的断章取义、移花接木现象,是不是也能为公众提供更有效的“谣言粉碎机“?这正是“科技向善”的具体表现。

不信谣不传谣,要有求证意识

值得关注的是,虽然上海辟谣平台给到ChatGPT的问题略有差异,但ChatGPT在回答时都建议询问者通过微信的官方渠道求证。

部分信谣者或传谣者之所以被误导,往往是因为没有求证的习惯,看到一个信源就相信了。如果多一点多方求证的意识,很多谣言就会不攻自破。

对公众而言,现阶段若遇到不确定的消息时,也可以尝试通过搜索引擎等,查找信源、了解更多的消息,然后再判断。

同时,相关信息平台要承担“去伪存真”的责任,加大推广真实的信息,遏制假消息的传播,更要对造谣者采取惩戒措施。

【延伸信息】ChatGPT是什么?

ChatGPT是OpenAI公司开发的人工智能语言模型,类似聊天机器人。它会根据接受训练的数据,回答问题或提供信息。

ChatGPT接受过大量文本数据训练,所以能生成广泛主题的文本,如事实信息、创意写作等。

目前,ChatGPT不能准确回答的问题主要有以下几方面:

1、需要个人意见或主观回答的问题。

2、需要超出其训练数据的常识或情境知识的问题,目前ChatGPT的训练数据截至2021年。

3、要求预测或有关未来事件的问题。

4、询问个人信息的问题,因为 ChatGPT 无法访问或提供个人信息。

5、询问不道德或非法行为的问题,因为 ChatGPT 被编程为遵循道德和法律准则。

本文经用户投稿或网站收集转载,如有侵权请联系本站。

发表评论

0条回复