V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  parad  ›  全部回复第 1 页 / 共 2 页
回复总数  23
1  2  
7 天前
回复了 wind1986 创建的主题 程序员 怎么通过人工智能玩游戏
@wind1986 想快速上手的话直接跑 stablebaseline3 ,调参数。

要系统学习的话从 reinforcement learning 的最开始学。MDP ,DQN ,PPO 。youtube 上应该很多。

要练手的话参加 kaggle simulation 类别的比赛,比如 lux challenge ,还有 MIT battlecode 。
7 天前
回复了 wind1986 创建的主题 程序员 怎么通过人工智能玩游戏
TypeScript 的话可以看看这个 lib ,里面有 DQN 和 PPO 。目前我在维护:

https://github.com/StoneT2000/rl-ts
7 天前
回复了 wind1986 创建的主题 程序员 怎么通过人工智能玩游戏
我之前写过 3 个 AI 玩游戏的 mobile app ,欢迎参考

https://ai-simulator.com/
Cursor 最新版本 0.49 好像开始限制 context 了,我手动 @的文件还要 agent 再 100 行,100 行的读。

如果是多文件,大 context ,可以试试我开发的 16x Prompt 工具,比较手动但是更可控,没有奇怪的 context 算法,能发挥模型原本的 100 %的能力。
12 天前
回复了 llej 创建的主题 程序员 基于 Effect 的后端 api 设计
看来来有点像 Ramda https://ramdajs.com/
Polar.sh 好像最近比较流行。可以试试。
@frankies 数据分析是 Data Analytics 或者 Business Analytics ,和数据科学 Data Science 有很大区别。Data science 现在和 AI 基本一个意思。
在国外生活多年,这两个专业对我来说没有任何区别。
26 天前
回复了 csfreshman 创建的主题 投资 美股 20%仓位亏了 10 个,心痛的无法呼吸
@zhy91 从公开的 trade deficit 数据来看是美国进口中国的大于中国进口美国的。跟你说的是正好反的。这也是美国增加关税最根本的理由。
@paranoiagu 也算是正常的。Ollama 内部是有些自己的逻辑的。

Reddit r/LocalLLaMA 和 Hacker News 我记得有人反馈同样的问题。

你也可以在那里 post 你的测试结果。
Temperature 设置为 0 ,消除 output 随机性

确保都是在 GPU 上跑的,lamma.cpp 和 ollama 默认有可能在 CPU 上跑,需要配置
每个模型不太一样,但是质量都会随 context 长度下降。

https://arxiv.org/abs/2502.05167
推荐 Fireworks, Together 和 Hyperbolic ,我自己测试下来速度比较快。Hyperbolic 最近两天变慢了。

测试脚本的原始数据: https://github.com/paradite/deepseek-r1-speed-benchmark

测试报告 https://prompt.16x.engineer/blog/deepseek-r1-cost-pricing-speed
@lovestudykid 问了另一家 provider ,他们说因为 Deepseek R1 是 "trained in FP8",所以本来就是 FP8 quantization 。所以没有影响。
但我也不确定这些 provider 有没有自己多做一层 quantization ,因为 Deepseek R1 的 FP8 是某些 layer 才有的,有会多其他 layer 还是 BF16:
- https://huggingface.co/deepseek-ai/DeepSeek-R1/tree/main?show_file_info=model-00001-of-000163.safetensors
- https://huggingface.co/deepseek-ai/DeepSeek-R1/tree/main?show_file_info=model-00160-of-000163.safetensors
- https://huggingface.co/deepseek-ai/DeepSeek-R1/tree/main?show_file_info=model-00163-of-000163.safetensors
这些 BF16 不确定是不是被额外的做了 FP8 quantization 。按照 vLLM 的说法,如果是 Online Dynamic Quantization
“all Linear modules (except for the final lm_head) have their weights quantized down to FP8_E4M3 precision with a per-tensor scale”:
- https://docs.vllm.ai/en/v0.5.0.post1/quantization/fp8.html
@lovestudykid 根据我的理解,DeepSeek 最终的 weight 是 mixed F8_E4M3 + FP32 。这个可以在 Hugging Face 的 原始 model layer details 里面看到: https://huggingface.co/deepseek-ai/DeepSeek-R1/tree/main?show_file_info=model-00027-of-000163.safetensors

而 Hyperbolic 的 FP8 是他们自己的 quantization ,是在 model 上面额外的 quantization ,这里有解释: https://docs.hyperbolic.xyz/docs/hyperbolic-ai-inference-pricing

所以我理解 Hyperbolic 应该是做了额外的 quantization 。当然有可能是我理解错了。欢迎指正。
域名太小众,渲染不出 link [https://prompt.16x.engineer/blog/deepseek-r1-cost-pricing-speed]( https://prompt.16x.engineer/blog/deepseek-r1-cost-pricing-speed)
有很多,我这里做了对比

https://prompt.16x.engineer/blog/deepseek-r1-cost-pricing-speed

持续更新中
99 天前
回复了 CC11001100 创建的主题 程序员 全球工单系统: deepseek 是挂了吗?
2022-08-31 16:03:53 +08:00
回复了 wenzaiquan199 创建的主题 问与答 为安全问题,早上公司热烈讨论
PCI DSS
2022-02-16 13:20:53 +08:00
回复了 iDontEatCookie 创建的主题 English 英语很烂怎么办啊?
https://www.nginx.com/resources/wiki/community/faq/

How do you pronounce “NGINX”?
There seems to be some confusion surrounding the pronunciation of NGINX.

Correct
en-juhn-eks*
Engine-X

Incorrect
en-jingks
1  2  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2538 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 37ms · UTC 15:37 · PVG 23:37 · LAX 08:37 · JFK 11:37
Developed with CodeLauncher
♥ Do have faith in what you're doing.