但国外部分权威媒体却一直处于“反对”状态。马斯克也曾与千名科学家一起呼吁暂停GPT-4训练,以解决安全、伦理和道德问题。
这两天,美国新闻出版商包括《纽约时报》和《华尔街日报》在内的权威媒体,时隔一年后开始措辞严厉的表态,指责ChatGPT一直在“非法剽窃”它们的版权:“我们的文章被投喂后又一字不差地吐出来!”
网传微软的GPT5.0已经停止训练,11亿资金或许已经打了水漂?因为它们遇到了三个无法攻克的问题:1、无法辨别真伪;2、缺乏保密责任;3、逻辑思维混乱。这一情况引发了广泛的关注,值得深思。
首先,无法理解、区分和辨别真假信息,对于人工智能模型来说是一个巨大的问题。虚假信息如果成为底层逻辑,将导致错误固化,难以纠正。这意味着我们将无法信任模型的回答,因为它们可能基于错误逻辑得出,产生严重后果。
其次,缺乏保密性和安全功能使得企业和政府部门的机密信息容易泄露。这对商业和国家安全都构成潜在威胁。一旦信息泄露,很难从大模型平台中抹去,这是一个不可逆的问题,可能只能通过物理销毁来解决,但这已经为时过晚。
最后,逻辑思维混乱问题使得人工智能模型的回答变得难以信任。同一个问题可能会有数百个不同且相互矛盾的回答,缺乏逻辑自洽。这使得人们难以获取可靠的信息和建议。
有人说,GPT越迭代,就越来越像人了:虚伪、贪婪、没有立场、逻辑紊乱。最要命的是它不分敌友,摇摆不定。你投喂给它的隐私,它能毫无保留的吐出来展示给任何人,让你一丝不挂逛大街。这引发了对人工智能伦理和安全的深刻担忧。
在这个背景下,我们需要认真思考人工智能的发展方向。应该重视伦理、安全和逻辑思维的问题,确保人工智能技术不仅强大,而且可信赖。
只有这样,我们才能在人工智能时代取得更多的进步,而不是陷入虚伪、贪婪和逻辑混乱的困境。愿我们能够共同努力,引领人工智能走向更加明朗的未来。