弥补短板,大模型依然脱不了大量训练

很久没有用ChatGPT了,因为想了解一下GPT-4o,才又登录上去浏览了一会。
临退出时,想到前段时间开源大模型编写Python程序拉胯的事情,于是就便把同样要求向ChatGPT提出,它很快给出了答案,相比上次唯一合格的Phil3,代码更为简单直观。
然后比较了一下代码,也明白了几个大模型出错的原因,我当时要求的是把符合要求的字符,用{}把包括起来替代。偏偏这{}在Python语言中,有特殊作用,那几个大模型就是忽视了这点才无法生成答案。
看来,这AI离不开的还是大量的训练。

Leave a Reply

您的电子邮箱地址不会被公开。 必填项已用 * 标注

You may use these HTML tags and attributes:

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>