AI算力陷阱3,AI智能投顾,目前全世界没有一家成功的案例

AI算力陷阱3,AI智能投顾,目前全世界没有一家成功的案例

参见:
AI算力陷阱,Prophet工程案例实测 http://www.topquant.vip/?p=1127
AI算力陷阱#2,资金陷阱 http://www.topquant.vip/?p=1137

请大家关注TOP极宽量化公众号,大量原创Python量化技术资料和课件、案例源码。
目前推广期间,关注公众号,即可免费浏览。


近来,很多网友都在咨询:AI人工智能与量化的问题。
笔者说过多次:目前,AI智能投顾,全世界没有一个成功的案例。
有网友说:西蒙斯也是量化交易,怎么可以说没成功的?

量化是量化,ai是ai。

很多网友,特别是小白,很容易把:量化、程序化建议、AI智能投顾搞混。
其实,这三者是完全不同的领域,就像cad、ps、word,或者说office里面的word、exce、PowerPoint都是常用的应用软件,但应用领域完全不同。

目前,所有的AI智能投顾项目,基金,都像TB上面的量子水杯/纳米牙刷一样,都是商业宣传。
光说不练假把式,不服气的,可以把具体项目做个list看看。

zw做ai二十年,说:目前AI+量化吗,全世界没有成功案例。
还是有一定的专业深度的,至少在AI中文字库这块,二十年来,目前这块,我们一直是行业第一,发布的字体也是全球最多。
参见:字王《中华大字库》CBF2018版·发布说明,http://ziwang.com/?p=258

2017年,我们在深圳海上世界鲸山别墅,专门组建了一个:GPU超算实验室。
因为同期的BTC数字币项目,有近百块1080ti,还有tian v ,以及四路e7-8895小型机,裸机就一百万。
同期,大部分大学一个系的研发团队,十万级别的GPU工作站,不过才4块1080Ti。
因为设备条件许可,我们进行了持续一年的AI人工智能量化算法模型研究。
我们测试过n种模型,哪怕最简单的ma均线面模型+oulc数据,算力都远远不够,至少还要提速万倍,甚至10万倍以上。
大家没有看错,算力至少还需要提升3-5个数量级:万倍,甚至10万倍以上。
说前AI+量化,靠谱的,请拿出具体的测试数据来,光show paer秀论文是没有意义的。

现在靠谱的语义分析,模型都是十万个参数起,量化ohlc四个参数都算不过来。
ps,参见附录:《微软开源深度学习优化库 DeepSpeed,可训练 1000 亿参数的模型》

所以我说 现在重点是btr + 传统策略

backtrader简称btr,网站是backtrader.com
目前 btr已经是金融量化的行业标准,也是欧美金融机构一线的量化实盘软件
Github上面,90%的数字币量化项目,都是采用btr
目前当务之急,就是老老实实 学习btr,是掌握利用专业的量化工具软件,进行金融数据分析。
就像传统设计师/美工,目前都学习使用cad/ps进行设计。
量化的核心是策略,向 这个金融更重要

如今是大数据时代,目前最好的大数据“神器级”软件pandas,就是美国量化巨头AQR资本管理公司开发的。
pandas属于“神器级”大数据分析软件,不断逆袭微软、谷歌、Oracle等各IT巨头,目前已经成为十亿以下工程一线首选的大数据实施方案。
具体细节,请大家自己百度:padnas何AQR,同时看看美剧《亿万》。
大数据时代,不懂量化,不懂BTR这些专业量化软件,尽量不要玩股票金融 ,不然90%概率成为韭菜、韭菜、韭菜。


附录:

微软开源深度学习优化库 DeepSpeed,可训练 1000 亿参数的模型

人工智能的最新趋势是,更大的自然语言模型可以提供更好的准确性,但是由于成本、时间和代码集成的障碍,较大的模型难以训练。微软日前开源了一个深度学习优化库 DeepSpeed,通过提高规模、速度、可用性并降低成本,可以在当前一代的 GPU 集群上训练具有超过 1000 亿个参数的深度学习模型,极大促进大型模型的训练。

根据微软的介绍,DeepSpeed 库中有一个名为 ZeRO(零冗余优化器,Zero Redundancy Optimizer)的组件,这是一种新的并行优化器,它可以大大减少模型和数据并行所需的资源,同时可以大量增加可训练的参数数量。研究人员利用这些突破创建了图灵自然语言生成模型(Turing-NLG),这是最大的公开语言模型,参数为 170 亿。

ZeRO 作为 DeepSpeed 的一部分,是一种用于大规模分布式深度学习的新内存优化技术,它可以在当前的 GPU 集群上训练具有 1000 亿个参数的深度学习模型,其吞吐量是当前最佳系统的 3 到 5 倍。它还为训练具有数万亿个参数的模型提供了一条清晰的思路。

ZeRO 具有三个主要的优化阶段,分别对应于优化器状态、??梯度和参数分区。

ZeRO 克服了数据并行和模型并行的局限性,同时实现两者的优点,它通过跨数据并行进程将模型状态划分为上图所示的参数、梯度和优化器状态分区,而不是复制它们,从而消除了数据并行进程之间的内存冗余。在训练期间使用动态通信规划(dynamic communication schedule),在分布式设备之间共享必要的状态,以保持数据并行的计算粒度和通信量。

目前实施了 ZeRO 的第一阶段,即优化器状态分区(简称 ZeRO-OS),具有支持 1000 亿参数模型的强大能力,此阶段与 DeepSpeed 一起发布。

DeepSpeed 与 PyTorch 兼容,DeepSpeed API 是在 PyTorch 上进行的轻量级封装,这意味着开发者可以使用 PyTorch 中的一切,而无需学习新平台。此外,DeepSpeed 管理着所有样板化的 SOTA 训练技术,例如分布式训练、混合精度、梯度累积和检查点,开发者可以专注于模型开发。同时,开发者仅需对 PyTorch 模型进行几行代码的更改,就可以利用 DeepSpeed 独特的效率和效益优势来提高速度和规模。

DeepSpeed 在以下四个方面都表现出色:

更具体的介绍查看微软的博客:

ZeRO & DeepSpeed: New system optimizations enable training models with over 100 billion parameters

请大家关注TOP极宽量化公众号,大量原创Python量化技术资料和课件、案例源码。
目前推广期间,关注公众号,即可免费浏览。

发表评论

电子邮件地址不会被公开。 必填项已用*标注