You are on page 1of 3

如何让GPT转化成为你的生产力工具

本文是根据我对于神经网络,深度学习和openai官方所展现的GPT的一些聊天方式来为大家整理出的一
份与GPT聊天的技巧,旨在更好的让GPT语言模型服务大家,成为你的生产力工具

最近通过网络发现,大多数人对于chatgpt的提问方式有以下几点误区,我在这里整理一下

1.将程序像人一样对待

2.提问gpt过于冷门或最新的内容

3.提问的问题非常模糊

以下我将通过自然语言处理,深度学习,神经网络算法的原理来阐述为什么你不能这么提问

在进入正题前,先让我们了解一下为什么Chatgpt总是强调自己是语言模型而很少强调自己是人工智能

语言模型
首先,我们要知道什么是语言模型,这里太长的内容就不说了,相信读者也不会喜欢看,我就给大家举
一个例子

首先我们使用基于gpt3的text-davinci-001语言模型来进行ai问答

这里我进行提问,你好
出现了问题,当我们提问hi的时候,正常的回答应该是:你好,我的名字叫。。。。或者其他类似问好
的回答,但是这里的语言模型却回答了“我不知道”,问题出在了哪里?是这款语言模型不够强么?但是
体验过GPT的朋友都知道,官网的chatgpt几乎是可以回答你的任何问题,而这款基于gpt3的语言模型正
式chatgpt的前身,为什么它的前身却连简单的问答都不清楚?

深度学习算法
这就要从深度学习算法开始讲起,所谓的深度学习,可以简单的理解为让程序“学会说话”就像一个刚学
会说话的宝宝,他们虽然能够说出”爸爸“”妈妈“这种人类语言,但是他们还不足以理解什么是”爸爸“,什
么是”妈妈“,他们只会学别人,而ai也是同样,这个时期的语言模型只是能够根据你的提示去往下说,但
是内容是什么,什么意思,语言模型并不知道,比如,我这里写”学好python需要以下几点:”

可以看到,语言模型顺着我们的要求往下进行输出,某种意义上解决了我们的问题
所以,在语言模型的初期,我们没办法通过问答的形式来进行正常交流,这也是为什么我们在chatgpt中
所提交的问题是"prompt"(提示)而不是"question"(问题),chatgpt依然是一款语言模型,只不过它的模
型更加先进和实用

神经网络
用的多的同学可能会注意到,当你向ai提问时,ai有的时候会出现“明明知道却不告诉你“,”乱编答案“的
这两种情况,这也是chatgpt被长期诟病的一些缺点,这里就涉及到了神经网络的一些知识,神经网络就
像我们的大脑,我们的大脑是怎样处理并返回信息的呢?目前最尖端的科学研究也没有搞清楚,但是根
据目前科学界的理论成果,我们的大脑是依靠神经元来接收并处理信息的,比如一个问题进入了大脑,
这个问题会转换为信息并通过神经元传递,通过层层传递,我们的信息会被进行一系列处理从而生成答
案(这里人工智能学或者医学大佬别打我,小弟也只知道一些非常浅层的东西),而神经网络正式模拟
我们大脑内传递和处理信息的这种能力,来生成一个独一无二的答案

这里由于实在太过复杂,我举一个简单的例子

比如当我们提问问题A的时候,这个问题中可能包含a,b,c,d四种要素,神经网络就会首先根据大问题A生
成A,B,C,D不同的回答,再通过提问中的每一个要素生成不同的关于小要素的回答,最后再将这些回答结
合,这也导致了我们的每一个提问,神经网络都会生成成百上千条回答,这些回答有些正确,有些还
行,而有些错的离谱,这个时候就需要人工去归纳分辨哪些是好的回答,哪些是不好的回答,这也是语
言模型的一个训练过程

根据神经网络的知识我们能总结出,一个问题会有成百上千种回答,但是不是所有问题都能分出对错
来,这也就导致了你的提问可能会有包含领ai拒绝的回答,这个时候我们应该怎么做呢?就是让我们提
问的A中的要素中不要包含会产生令AI拒绝的回答出来,这里包括不限于

”能不能“,”可不可以“,”好么“这类商量的语气出来,因为这会让你的提问中包含”不可以“这样的拒绝要
素,所以ai的回答也会产生类似“不可以”这种拒绝的回答

You might also like