今天聊一个现在比较火的话题,也就是人工智能。
2018年,OpenAI发布了第一代GPT产品,这项划时代大模型出现以后,全世界便开启了AI技术发展的浪潮。
2024年,GPT产品已经发展到第四代,它的智能化程度已经非常高了,可以说是全球最好的交互式AI。
现阶段,中国和美国是全球唯二的两个人工智能大国,在GPT这个产品赛道中,美国处于领先地位,但领先优势并没有那么明显。
但是如果说到大模型对行业的赋能,显然中国更具有创造性,华为的盘古大模型,就是其中的佼佼者。
早在GPT诞生之初,华为就已经在开发AI产品了,两年以后,华为盘古大模型横空出世,这足以看出中国AI发展还是十分迅猛的。
现在全世界各大科技企业都,陷入了飞速发展的AI狂欢浪潮中,但却不少科学家站出来“泼冷水”,这又是怎么一回事呢?
接下来的内容,让我们来一探究竟!
1.AI安全性问题大增,全世界进入“奥本海默决策时间”
现在的AI,大多展示的是一种辅助技术手段,我可以将AI看作一个工具,有了它,人类工作起来就会变得轻松,所以说现在的AI,对人类来说是不具备威胁的!
中国人有句古话叫:“人无远虑必有近忧”,看待任何事物,我们都要有一个长远的目光,如果我们忽视了“远虑”,那么“近忧”也就不远了。
AI其实就是一个典型的案例,AI即人工智能,这种技术虽然目前还处于发展初期,但不可否认的是的,最近一段时间,AI的发展速度有些过快了。
如果按照这个趋势发展下去,AI终有一天会诞生智慧,那么到了那个时候,人类危机可能就要来临了。
或许有一天,美国大片《骇客帝国》就将成为现实!
举个例子,科学家奥本海默对研发核弹这件事,一直有着非常复杂的情感,而他的这种心态和思维,现在又出现在了发展AI这件事上。
目前来看,如果不对AI的发展加以限制,那么未来终有一天,AI会变成一种类人智慧体,它的思考模式或许会跟人类很像,在庞大算力的支撑下,AI的能力将会无限增长。
AI需要庞大的算力,这件事并不可怕,可怕的是前者,当AI拥有了人类一样的思维模式,AIL会不会将人类视为敌人,从而发起一项庞大且复杂的“人类清除计划”》
这一点谁也说不准,所以说现在中外科学家对AI表示担忧,这一点是可以理解的,显然“未雨绸缪”也是必然之事。
2.AI发展已不可阻挡
历史车轮滚滚向前,当AI技术成为全球主流时,这股浪潮已经不可阻抗了。
接下来,就是要看它究竟要朝着哪个方向继续发展。
如此看来,AI发展很重要,如果一个国家不发展AI,那么这个国家就要落后,但是在发展的同时,我们还需要注重AI安全。
不得不说,OpenAI的GPT大模型就有些失控征兆,它正朝着人类最不愿看到的方向发展,GPT随着升级迭代,它的能力变得越来越强了,同时也变得越来越像人了!
如果按照这个方向发展下去,GPT就可以大规模应用在机器人身上,试想一下,一台机器人除了不具备人类情感以外,无论是智商还是能力,都在人类之上,那将是一件多么可怕的事情?
因此科学家给AI安全划分了六个等级,0级最小,5级最高,当AI处于3级时,它的某些能力就已经强过人类了。
如果到了最高级,那么AI将会对人类形成碾压,目前来看,即将发布的GPT5.0或许将达到1级的水平。
这种级别是可控的,但也必须引起大家的警惕!
当然,我们也不能因噎废食,因为发展AI就意味着解放生产力,未来数十年里,如果哪个国家不发展AI,那么想来这个国家一定会落后,而落后就意味着挨打,毕竟有美国这个世界警察在,任谁也不敢掉以轻心。
从技术角度出发,现在的AI更多体现在大模型应用上,比如说智能驾驶,比如说预测天气,比如说生成文字和视频,比如说简化工艺流程,比如说安全检查。
如此看来,AI可以应用在各行各业中,甚至还包括了医学、健康等领域,随着技术的发展,人类的三百六十行都将被AI赋能,现在看来,只要不赋予AI人类的情感,那么它就不能称之为智慧体,即一种全新的生命形式!
那么看了AI的安全性问题,你对此有什么想法,欢迎在评论区留言,说说你的观点吧!
热门跟贴