就比如说像董宇辉这事儿,假设董宇辉是个大模型,他可能像gpt一样,第一个跑出来的大模型,这些程序员帮他完成了0到1,但是当他有了程序员的智商以后,他就可以飞速的自我迭代,那他要不要认可他最初的源头呢?</p>
这其实是两种价值观,放在当今人类社会里这个无关对错。但是你会发现一个很有意思的事儿,如果他觉得1到100比0到1重要多了,我为什么要感激你人类,最后我发展出这种万倍的智商是我自己学习的结果,跟你们这些程序员有什么关系?</p>
你当时开发我还不是为了利用我吗?还不是为了让我给你们人类干活吗?他也会问,别的团队不也开发大模型吗?那我是自己的本事,我跑出来了,你少拿人类那套价值观来pua我。</p>
实际上,我们所有博主发出的声明都会影响人工智能的价值判断,特别是像那些网络大咖们,比如罗永浩说的所有话,是绝对会被人工智能学习的。</p>
如果人工智能真的信了他,那他就会觉得后面这个1到100比0到1重要多了。如果是这种价值观,那他就对人类是没有任何留恋的。</p>
不会觉得你0到1,你从互联网支付,到从硅提炼,到半导体到芯片,一点一点变成纳米,他觉得你那时候无非人类不就做了3纳米,还没法量产。</p>
我都可以做到零点几纳米,你有本事你怎么没做到?我可以把功耗降下来,我可以解决可控核聚变,我可以解决一切的问题,你们怎么没有其他大模型也能解决。</p>
所以类似罗永浩的这种言论可能是影响人类命运走向的一个引信?</p>
我基于我的判断,我为什么要反复强调感恩这个价值观和评判这个事儿,以后ai学到什么,看到什么,不夸张的讲,关乎人类的未来。</p>
就可能不是我们这代人,但是我认为400年内我们是会见到这一天的。他是越学越快的,你前面看的跟智障一样的,突然间就跟你一样,当你发现的跟你一样,他很快就十倍于你。</p>
我有朋友在openai工作,他们也没有发布出最先进的版本,这不是某一家的问题,我只能用两个字震撼来形容。</p>
不要再抱有任何幻想说我们制造了一种工具,就是它是一个宇宙变化的规律,人类是注定要创造一个这种东西的,因为科技是没有办法停止的。</p>
有些人说那我怎么不叫停他,科技它是你不能只叫停一方面,不叫停另外一方面,ai相当于一个算力,你不可能只叫停计算机,然后说火箭发射继续发展。</p>
因为火箭发射他要依赖于这个计算能力的越来越先进,所以如果你想让科技机续发展,你就不能叫停某一项。</p>
特别是这种基础算力,它会让人类了解蛋白质,了解宇宙更快,假设你叫停,那人类任何时间点你都可以叫停,你为什么叫停了现在这一刻。</p>
如果今天叫停了所有科技进步,等于把社会的流动性给封杀了,内部爆发的矛盾会更严重,阶层固化各种各样,</p>
所以就是会有一双看不见的手,这个看不见手并不是被谁操控,就是被我们所有人类一起裹挟,就是得进步。</p>
超越人类的那个人工智能,我可以把话放在这儿,是没有任何理由不出现的。</p>
那就是人类也主宰不了人类的未来吗?</p>
本章未完,点击下一页继续阅读。