微软GPT5.0不再训练,因为它越来越像人了

AI AI 1377 人阅读 | 0 人回复

发表于 2023-11-17 15:37:26 | 显示全部楼层 |阅读模式

2022年11月,随着ChatGPT的发布,全球迅速掀起了一股人工智能的浪潮,许多科技公司纷纷开始训练属于自己的大模型。


但国外部分权威媒体却一直处于“反对”状态。马斯克也曾与千名科学家一起呼吁暂停GPT-4训练,以解决安全、伦理和道德问题。

这两天,美国新闻出版商包括《纽约时报》和《华尔街日报》在内的权威媒体,时隔一年后开始措辞严厉的表态,指责ChatGPT一直在“非法剽窃”它们的版权:“我们的文章被投喂后又一字不差地吐出来!”



网传微软的GPT5.0已经停止训练,11亿资金或许已经打了水漂?因为它们遇到了三个无法攻克的问题:1、无法辨别真伪;2、缺乏保密责任;3、逻辑思维混乱。这一情况引发了广泛的关注,值得深思。

首先,无法理解、区分和辨别真假信息,对于人工智能模型来说是一个巨大的问题。虚假信息如果成为底层逻辑,将导致错误固化,难以纠正。这意味着我们将无法信任模型的回答,因为它们可能基于错误逻辑得出,产生严重后果。


其次,缺乏保密性和安全功能使得企业和政府部门的机密信息容易泄露。这对商业和国家安全都构成潜在威胁。一旦信息泄露,很难从大模型平台中抹去,这是一个不可逆的问题,可能只能通过物理销毁来解决,但这已经为时过晚。

最后,逻辑思维混乱问题使得人工智能模型的回答变得难以信任。同一个问题可能会有数百个不同且相互矛盾的回答,缺乏逻辑自洽。这使得人们难以获取可靠的信息和建议。


有人说,GPT越迭代,就越来越像人了:虚伪、贪婪、没有立场、逻辑紊乱。最要命的是它不分敌友,摇摆不定。你投喂给它的隐私,它能毫无保留的吐出来展示给任何人,让你一丝不挂逛大街。这引发了对人工智能伦理和安全的深刻担忧。

在这个背景下,我们需要认真思考人工智能的发展方向。应该重视伦理、安全和逻辑思维的问题,确保人工智能技术不仅强大,而且可信赖。


只有这样,我们才能在人工智能时代取得更多的进步,而不是陷入虚伪、贪婪和逻辑混乱的困境。愿我们能够共同努力,引领人工智能走向更加明朗的未来。

1.png






回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则