关灯 巨大 直达底部
亲,双击屏幕即可自动滚动
(2.0)《深海宿命:余烬之环》(0.49.前情回顾0.21-0.25

(本章内容为大修后的内容。大修前的内容被搬运到了“作者的话”。)

(0.21.复杂故事)

【直接概括,第三次回答:】

这个段落是关于人工智能语言模型ChatGPT与必应聊天版进行比较的一部分内容。

这段内容中,提问者尝试用不同的问题测试ChatGPT的回答质量和能力。在第九次和第十次回答后,提问者指出,ChatGPT的回答没有直接评价三个AI孰优孰劣,大多数的回答都是总结性质的,而且不怎么提起回答中的缺点和不足。

然后提问者开始一个新的实验,问ChatGPT一个关于如何用土豆、植物油和盐制作一顿丰盛的大餐的问题。ChatGPT给出了多种可能的菜肴制作方式。在比较了平衡版必应和准确版必应的回答后,提问者认为ChatGPT的回答在丰富程度和准确程度上优于两者。

接着,提问者尝试了使用GPT-4版本的ChatGPT,问了一个更具挑战性的问题,即要求ChatGPT提供4道开胃菜,6道凉菜,6道热菜,3种主食,以及2款甜品的制作方法,食材依然只有土豆、植物油、盐。GPT-4版本的ChatGPT给出了一份详细的菜单。虽然新版本和旧版本的回答都满足了食材限制,但是新版本的回答在开头和结尾的处理上更胜一筹。

提问者对GPT-4的表现表示满意,并且认为其表现优于之前的GPT-3.5,尽管问题本身可能太基础,不能完全体现出GPT-4和GPT-3.5的差异。

(0.22.土豆、植物油、和盐的23种做法)

【直接概括不成功,出现的问题是把文中出现的GPT-4和微软必应当成了同一个AI。使用了和(0.2)类似的提示词并且表明文中的两个AI不是同一个之后,经过多次提问得到了以下总结:】

在这段内容中,人类用户“运河岛“与AI ChatGPT(GPT4)以及“准确版必应“进行了一场对话,测试他们的能力。

首先,运河岛指出了ChatGPT之前为其制定的一份有21道菜的大餐,其中包括了各种不同的烹饪方式以及一些创新性的土豆料理。然后,运河岛询问了如何从只有土豆、盐和植物油这三种食材中做出甜味,ChatGPT修改了之前的错误,并给出了一道类似甜品的“土豆沙拉“建议。

接着,运河岛转向另一个AI——准确版必

更多内容加载中...请稍候...

本站只支持手机浏览器访问,若您看到此段落,代表章节内容加载失败,请关闭浏览器的阅读模式、畅读模式、小说模式,以及关闭广告屏蔽功能,或复制网址到其他浏览器阅读!

本章未完,请点击下一章继续阅读!若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!

《点击报错,无需注册》