DeepSeek最近很出风头,据说性能超ChatGPT,而且不依赖GPU,一下子打击了美国软硬两巨头。DeepSeek不依赖GPU没啥好说的,代码公开的,看看是不是用了GPU编程CUDA就行了。现在出来一个说法,DeepSeek成功是因为利用了ChatGPT的输出数据。这个好像一下子说不清,因为开源是公开代码,不是公开数据。在深度学习领域,数据的重要性和代码差不多的,而且数据往往量非常大,不公开数据可以理解。那么DeepSeek是不是利用了ChatGPT的输出数据呢?我觉得应该不是。先说下所谓的利用ChatGPT的输出数据是怎么回事。这其实是个常见操作,很多深度学习安全方面的文章里提到的surrogate model就是指这个。因为已经成为常规操作了,最近的文章都不提细节。搜了下,挺早就有文章专门写这个,比如How to steal a machine learning classifier with deep learning,2017年的,就是AlphaGo击败柯洁那年。这个steal分两步,先是利用受害者公开提供的服务,拿一批数据去看它输出是什么,然后再用这批数据和输出去训练自己的模型。这次就是指责DeepSeek干了这种事。但是这种指责有道理吗?没有。 所有surrogate model的目标都是获取一个和受害者模型类似的模型,从来没有人指望能青出于蓝而胜于蓝。当然了,如果对DeepSeek的指责这么傻,还指望有人信,那就是侮辱业界的智商了。所以指责还说了,DeepSeek不是盲目使用收集到的数据,而是有选择性的剔除了不合理的数据,才能做到青出于蓝而胜于蓝。这个有没有可行性呢?有。但问题是 1.你怎么剔除不合理的数据?这可不是简单的活。人工标识工作量会很大,用加强学习,技术得过关,别学偏了越学越差。AlphaGo最后就是用加强学习自我提高,但围棋是有明确输赢的,加强学习容易很多。 2.假设DeepSeek先收集数据,再人工标识或加强学习,最后训练自己的模型,就能超过ChatGPT了?不要忘了,这套路是大家都懂的,ChatGPT也可以这么升级啊。DeepSeek再收集数据也比不过ChatGPT自己就有数据,第一步就输了。写完自己读了一遍,估计还是很多人看不懂,我已经尽量避免技术细节了,但是还是留了不少技术细节。没办法,我只能做到这个地步了。抱歉。
贴主:jolly11于2025_01_30 10:35:18编辑楼主设置:谢绝布衣用户参与回复交流
喜欢jolly11朋友的这个帖子的话,👍 请点这里投票,"赞" 助支持!
jolly11 已标注本帖为原创内容,若需转载授权请联系网友本人。如果内容违规或侵权,请告知我们。
打开微信,扫一扫[Scan QR Code]
进入内容页点击屏幕右上分享按钮
楼主本月热帖推荐:
>>>查看更多帖主社区动态...