ChatGPT升级,新必应提档

今天看新闻,OpenAI公司宣布其ChatGPT发布了最新的GPT-4语言模型,据传强大了500倍,并可以根据手绘图生成类似的静态网页。

随后微软宣布其新必应已经使用了GPT-4。

具体性能提升多少倍不好说,但新必应的速度和回答内容的提高却是明眼可辨的。

同一个问题,这张图片是ChatGPT的回答,可谓是堂堂正正。

这是新必应初推出时的回答,还只不过是搜索引擎的汇总而已。

而这是今天新必应的最新答案。

只不过,怎么看的这么眼熟呢?

显然如之前猜测,ChatGPT会根据自己的回答与用户的反馈,进行再学习。这类似于围棋AI左右互搏的自训练。

而微软作为OpenAI的金主股东,引擎集成ChatGPT的同时,自然也可以享用ChatGPT的训练结果。所谓GPT-4的高效,应该也离不开这种高效知识的获取。

0人点赞

ChatGPT与新必应chat单元比较

今天一位朋友的ChatGPT出了点问题,最后采用排除法推测,应该是单个chat内容过多,导致“爆库”。
ChatGPT是使用页面左边的chat栏新增、管理chat,而这里面每个chat单元是独立不互通的。比如你在一个栏目里告诉AI,你是我侄子,交流过程中,没准长尊有序的他会突然喊你一声叔。但如果切换到另一个chat中,他就六亲不认了。
集成了ChatGPT的新必应则要简陋多每个交流框字数限制为2000,且没有chat单元,而是通过交流框左边的新话题按钮来切换。不过这个按钮的图标是一个扫把,寓意不言而喻。同时它也会提示:“好了,我已经为新的对话重置了我的大脑。你现在想聊些什么?”
此外不用担心新必应会爆库,聊不了多少他就会强行重置它的大脑了。终究难改搜索引擎本色。

失望的dbeaver ce

自从上次DBeaver CE在跨数据库数据迁徙中大发神威,它也就成为我的关系型数据库客户端首选。

不过使用起来,也就是一些零打碎敲的数据处理,从上周末开始进行数据库的大操作,本以为dbeaver可以再战雄风了,谁知道用起来才发现,随着版本升级,原先那神级表现的功能不见了,界面倒是越来越花哨,层级多的让鼠标都迷路。最可气的是,略微大一些的数据导入,居然数次内存错误死机了!

最后不得不又将小巧简陋的heidisql请出来,完成这个简单工作。

相比heidisql数据库连接后的单页面操作,dbeaver是把数据库连接放在最醒目的左上,还时不时来个主动连接,操作时候真是担心点错了数据库。

最后发现,繁复的标签页,方便的反而是数据表中简单的操作了,这倒显出对heidisql的优势了。

看来ce版就是ce版,免费的功能强大了谁还用专业版。

新环境下顺利编译最新版本katago

昨天晚上还是将深度学习机器的系统又换回ubuntu22.04,毕竟技术总是进步的,不能削足适履。

同时把cuda的版本确定为11.x的最新版本,虽然NVIDIA默认推荐版本为12。以cuda为基准,把CUDNN、TensorRT也升级到相应的最新版本,算是把场地舞台搭建好了,就等着训练检验了。

今天回家趁着备份服务器的时间,又试着编译了了一下最新版的katago。自从使用GPU云服务后,就从没有编译成功过,前几天搞得我心灰意懒的也是它。

不过,今天顺利得很。

可能期望值低的原因,也可能挫折受多了,这次老老实实按照NVIDIA的安装说明一步步安装,期间没有遇到什么波折,程序编译成功了,然后运行也没有再出现那熟悉的错误提示。

由此看来,katago作者在github上所说的环境版本,也是以cuda11.2为基准的,而成功的关键就在版本相符,而不必是盲目一致。

同样问答,新必应眼见的巨大差距

在bing推出集成了ChatGPT的新版本新必应后,我也使用微软账号提交了注册申请,但被提示在候补行列中。

今天使用bing的时候,看到自己可以使用新必应的提示,但需要打开edge才能使用,真是肥水一点不流外人田啊。

提问了一个已经得到ChatGPT答案的问题:历史围棋名局的定义标准是。

新必应提供答案速度倒很快,并在答案中用数字标注了答案来源。

只是这文抄公般复制粘贴的答案,实在没法跟原版ChatGPT那堂堂正正、冠冕堂皇的答案相比。

毕竟必应是搜索引擎,哪怕是千分之一的市场占有率提升的背后,也是广告带来的滚滚红利。

估计下周发布的百度也是如此。


NVIDIA强大有其道理

昨晚安装机器顺利,但调试系统始终磕磕绊绊,主要原因是各种系统需要运行的计算平台、运行库的版本存在差异,甚至冲突。
而最为突出的就是cuda,以katago为例,即便同为11版本,11.2与11.3下编译的程序就无法兼容。
今天晚上同样焦头烂额,不过也有所得。那就是发现NVIDIA的教程虽然版面简陋,但写的的确详细明了,即便发行的专业书籍也不过如此。
此外因为反复下载驱动及程序,那官网的速度真是飞一般急速。
看来人家黄厂长能挣大钱不是没有道理,也舍得本钱啊!至于后面尾灯都看不到那两位,还争什么第二啊。

二手显卡到手,满意

昨天真正惦记的还是高价购买的显卡。在淘宝网上,这显卡花费的银子,仅低于当年的日本进口榧木棋墩。顺丰的包裹上贴了三个安检的标,也能看得出现在是特殊时期。打开包装后抑制住激动的心情拿出显卡,九成新是没有问题,但使用多久真是不好说,因为显卡的味道已经没有了。显卡比想象要大一些,与拆下来的1030相比要大上一大号,毕竟那个显卡是无需供电的。把显卡插在19年底组装的机器上,运行正常,原先最担心的400W电源,并没有拖后腿。12G显存消灭了瓶颈,可以顺利运行前期安装的程序,唯一遗憾就是因为tensorrt版本问题,显卡并未发挥威力。而随后安装的几个AI应用,也出现了版本问题。其中cuda尤为甚,NVIDIA在强推12新版本,而原先很多程序还停留在10、11,这种混乱显然还会持续很长时间。

咬牙购买二手拆机3060显卡

昨天晚上临睡前,趁着身体疲惫头脑不清醒,咬咬牙、狠狠心、一跺脚把前几天收藏夹里的惠普拆机九成新itx3060显卡下单了。
看重的这款显卡一是便宜,要比全新少花千数块钱呢;再者就是现在开始少见的12G显存,运行AI程序不受限;最后就是itx板型,适合多种机箱。
早上起来,感觉还是有些冲动了。
又浏览了网页平复心情,店铺里面居然有P104计算卡,而且价格不足400元,这可是前两年价格被炒上天的稀罕古董。
看来挖矿潮真的过去了。
下一个可能就是AI本地应用潮,该花的钱总要花的。

AI应用环境搭建完毕,只待显卡

今天在外忙了一天,回家简单做饭的同时,开始了继续昨天未完成的AI应用环境搭建。

通过本周Vits的应用,发现无论是国外的COLAB还是国内的GPU云服务器,都有诸多限制,要想常规学习应用,搭建本地环境还是必需的。

还好,在解决了几个昨晚遗留问题后,虽然vits训练未果,但系统环境搭建完成,不用再连续熬夜了。

在2019年底,为了人体体态识别应用,曾购买了一台二手Dell工作站,加上全新索泰矿卡P106-90,搭建了一台“深度”学习机器。跟昨天情况相同,也是颇费周折搭建环境完成后,运行程序硬件报错,只不过那次报错的4G内存不足,添加8G内存开始正常运行。

那台机器在搭建完成后不久,就因疫情而被遗落,几经周折,如同丢失的孩子,找回的希望几乎破灭,这也是我不得不重新搭建新机器的原因。

这次测试机器使用的外甥原先的游戏机,只是运行报错的硬件不再是内存,而是970显卡的4G显存。

三年过去,AI技术突飞猛进,硬件需求自然是水涨船高。而后期Stable-DiffusionAI绘图等应用,8G显存已经是最低要求。

看来,必须要先买一块二手RTX3060显卡了。

ChatGPT崛起,英伟达拒绝降价

前天几个人一起聊ChatGPT的时候,我做了一个预测,那就是这几年内,ChatGPT技术就会开源。

这些年来火遍全球的科技技术、项目后面,都是资本在兴风作浪,或者说是作妖,而推波助澜的也离不开那些传统的科技公司,甚至可以说是为虎作伥。

最近的例子就是虚拟货币,英伟达赚的是盆满钵满。而矿难之后,黄厂长刚放下身段要搞促销,ChatGPT的横空出世,顿时让老黄又鼻孔朝天了。

现在IT界掌门们都在敲打后辈:ChatGPT烧钱,尔等不要跟进。

后辈也不傻,都是吓大的,不烧钱能混IT?

要烧钱,最开心的还是那些资本,还有就是黄厂长他们了。虽说ChatGPT需要积累,但有了ChatGPT,数据的获取效率可谓是一日千里,缺少的就是数据处理。

而数据处理,怎么离得开黄厂长?

降价?黄厂长的刀快着呢。