中国的 Python 中国允许量化交易吗工具链有哪些

帐号:密码:下次自动登录{url:/nForum/slist.json?uid=guest&root=list-section}{url:/nForum/nlist.json?uid=guest&root=list-section}
贴数:1&分页:wdgwz发信人: wdgwz (wdgwz), 信区: FE
标&&题: 量化交易的Python工具链
发信站: 水木社区 (Sun Jun 11 22:34:00 2017), 站内 && Anaconda: Anaconda is a completely free Python distribution (including for commercial use and redistribution). It includes more than 400 of the most popular Python packages for science, math, engineering, and data analysis. &&
&& Tushare: TuShare是一个免费、开源的python财经数据接口包。主要实现对股票等金融数据从数据采集、清洗加工 到 数据存储的过程,能够为金融分析人员提供快速、整洁、和多样的便于分析的数据,为他们在数据获取方面极大地减轻工作量,使他们更加专注于策略和模型的研究与实现上。(Anaconda安装:pip install tushare) &&
&& python派程序化交易社区
是一个量化交易,程序化交易社区,职业人士和爱好者,有最近的动向,不仅可以PC端访问,有社区手机APP可以随时浏览。
&& python派程序化交易社区APP下载
&& Pandas: pandas is an open source, BSD-licensed library providing high-performance, easy-to-use data structures and data analysis tools for the Python programming language. (Anaconda已包含) &&
&& Zipline: Zipline is a Pythonic algorithmic trading library. It is an event-driven system that supports both backtesting and live-trading. (Anaconda暂未收录最新版) &&
&& Quicklib程序化交易python框架和工具
提供了程序化交易的PYTHON框架和程序化交易工具
比如国内的期货行情、交易、跟单、预警、分布式计算、程序化交易的例子、A股行情python框架等等。采用异步IO,事件驱动是基于C++底层的,比采用PYTHON应用层的事件驱动框架高效的多。不仅具备了PYTHON的扩展能力,同时也提高了极强的C++扩展能力,并提供了更好的脚骨性能。 &&
&& 掘金量化:掘金是为专业量化机构和宽客打造的一套全栈式量化交易解决方案。 &&
&& RiceQuant: Ricequant 的终极目标是成为每一个宽客 ( Quant ) 的私人量化交易平台。所有的灵感可以在我们这里变成代码,通过我们安全、极速的平台交易获得运算结果,每一个策略都可以通过我们的平台实现。 &&
&& 优矿:『优矿』是您的私人金融量化分析的平台。我们旨在打破金融量化的壁垒,为广大量化爱好者提供华尔街专业量化机构的装备。通过提供高质量的海量金融数据与高性能的分析工具,共襄智慧与金融在大数据时代的红利。 &&
&& 聚宽:在线量化交易平台。 &&
&& Wind量化平台:Wind量化平台包括机构版和个人版两个版本。其中机构版即Wind资讯金融终端。 &&
&& 同花顺量化交易平台:同花顺开发的回测、实盘量化交易平台。 &&
&& Pyalgotrade: PyAlgoTrade is an event driven algorithmic trading Python library. &&
&& QuantDigger:基于Python的量化交易平台 &&
&& EasyTrader:提供华泰/佣金宝/银河的股票自动交易 &&
&& Quantopian: 国外在线量化交易平台。 &&
&& 龙卷风行情接收接口:全推行情数据接口。 &&
※ 修改:·wdgwz 于 Jun 11 22:35:02 2017 修改本文·[FROM: 112.64.217.*]
※ 来源:·水木社区 ·[FROM: 112.64.217.*]
文章数:1&分页:&p&Update: 17/3/29:&/p&&p&网站下线,之后以离线版HTML格式提供下载,见&a href=&///?target=https%3A///jayleicn/scipy-lecture-notes-zh-CN/releases& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GitHub-release&i class=&icon-external&&&/i&&/a&。&/p&&p&
Update: 16/2/20:
这些天在和&a class=&member_mention& href=&///people/9a3c8f80aaafcba81bf21d4& data-hash=&9a3c8f80aaafcba81bf21d4& data-hovercard=&p$b$9a3c8f80aaafcba81bf21d4&&@万隽舒&/a&一起翻译这份文档,戳&a href=&///?target=http%3A///& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a& ,水平有限,不足之处还望指正。有兴趣的朋友可以一起来,详情见&a href=&///?target=https%3A///jayleicn/scipy-lecture-notes-zh-CN& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GitHub - jayleicn/scipy-lecture-notes-zh-CN: 中文版scipy-lecture-notes.&i class=&icon-external&&&/i&&/a&&/p&&p&当然,还是推荐大家阅读英文原版。&/p&&br&&p&--------------------
--------------------
推荐一个很用心的教程 &a href=&///?target=http%3A//www.scipy-lectures.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Scipy Lecture Notes&i class=&icon-external&&&/i&&/a&&/p&&blockquote&One document to learn numerics, science, and data with Python
&/blockquote&&p&----------------------------------------------
这份教程由易到难分为三个层次 &/p&&ol&&li&Numpy, Matplotlib, Scipy的入门以及如何利用官方的doc查询函数的用法;&/li&&li&Numpy, Scipy的高级用法,常用的几个数据处理方法,以及Python和C/C++的混合编程;&/li&&li&其它常用数据处理/机器学习库Sympy, Scikit-image, Mayavi, Scikit-learn的入门及应用。&/li&&/ol&&p&从内容上来说与题主要求完美契合,同时也涉及到了许多相关的库和技巧。&/p&&br&&br&&p&----------------------------------------------
什么? 嫌在线看教程不方便? &/p&&p&在网站主页的右上角,提供了离线教程的下载链接。 不仅有和在线版完全一致HTML版的离线教程,也有两个PDF版本可以选择! 不得不说是业界良心。 另外所有教程的源码都是可以在GitHub下载到的。&/p&&img src=&/44f19f5d849cd359c509_b.png& data-rawwidth=&779& data-rawheight=&409& class=&origin_image zh-lightbox-thumb& width=&779& data-original=&/44f19f5d849cd359c509_r.png&&&br&&br&&p&最后,答主也同样是本科生,目前在漫漫的数据处理入门阶段。即为同行者,望共勉之! 希望对题主有帮助。&/p&&p&----------------------------------------------&/p&&p&附上教程目录&/p&&a href=&///?target=http%3A//www.scipy-lectures.org/intro/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&1. Getting started with Python for science&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/intro/intro.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&1.1. Scientific computing with tools and workflow&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/intro/language/python_language.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&1.2. The Python language&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/intro/numpy/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&1.3. NumPy: creating and manipulating numerical data&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/intro/matplotlib/matplotlib.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&1.4. Matplotlib: plotting&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/intro/scipy.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&1.5. Scipy : high-level scientific computing&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/intro/help/help.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&1.6. Getting help and finding documentation&i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A//www.scipy-lectures.org/advanced/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2. Advanced topics&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/advanced/advanced_python/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2.1. Advanced Python Constructs&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/advanced/advanced_numpy/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2.2. Advanced Numpy&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/advanced/debugging/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2.3. Debugging code&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/advanced/optimizing/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2.4. Optimizing code&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/advanced/scipy_sparse/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2.5. Sparse Matrices in SciPy&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/advanced/image_processing/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2.6. Image manipulation and processing using Numpy and Scipy&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/advanced/mathematical_optimization/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2.7. Mathematical optimization: finding minima of functions&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/advanced/interfacing_with_c/interfacing_with_c.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2.8. Interfacing with C&i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A//www.scipy-lectures.org/packages/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&3. Packages and applications&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/packages/statistics/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&3.1. Statistics in Python&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/packages/sympy.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&3.2. Sympy : Symbolic Mathematics in Python&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/packages/scikit-image/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&3.3. Scikit-image: image processing&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/packages/traits/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&3.4. Traits: building interactive dialogs&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/packages/3d_plotting/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&3.5. 3D plotting with Mayavi&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//www.scipy-lectures.org/packages/scikit-learn/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&3.6. scikit-learn: machine learning in Python&i class=&icon-external&&&/i&&/a&
Update: 17/3/29:网站下线,之后以离线版HTML格式提供下载,见。
Update: 16/2/20:
这些天在和一起翻译这份文档,戳 ,水平有限,不足之处还望指正。有兴趣的朋友可以一起来,详情见
还有这个:&br&&a href=&///?target=http%3A//gbeced.github.io/pyalgotrade/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&PyAlgoTrade - Algorithmic Trading&i class=&icon-external&&&/i&&/a&&br&我自己也在基于python开发自用的量化平台
我自己也在基于python开发自用的量化平台
&p&这里,耗费了不少的业余时间,专门为爬虫入门或初中级写了一个知乎爬虫。为什么选择知乎呢?应为这里例子可以尽量多的将爬虫涉及的技术点包含进去,同时又不至于那么复杂,学习和提升兼顾。下面说明知乎爬虫的源码和涉及主要技术点:&/p&&p&&b&(1)程序package&/b&&b&组织&/b&&/p&&br&&img src=&/340a25d7ef3debd8bb2c_b.png& data-rawwidth=&307& data-rawheight=&474& class=&content_image& width=&307&&&br&&p&&b&(2)模拟登录(爬虫主要技术点1&/b&&b&)&/b&&/p&&p&
要爬去需要登录的网站数据,模拟登录是必要可少的一步,而且往往是难点。知乎爬虫的模拟登录可以做一个很好的案例。要实现一个网站的模拟登录,需要两大步骤是:(1)对登录的请求过程进行分析,找到登录的关键请求和步骤,分析工具可以有IE自带(快捷键F12)、Fiddler、HttpWatcher;(2)编写代码模拟登录的过程。&/p&&br&&img src=&/0e8f2c5e3eeef244fd6ec1_b.png& data-rawwidth=&668& data-rawheight=&321& class=&origin_image zh-lightbox-thumb& width=&668& data-original=&/0e8f2c5e3eeef244fd6ec1_r.png&&&br&模拟登录&br&&p&&b&(3)网页下载(爬虫主要技术点2&/b&&b&)&/b&&/p&&p&
模拟登录后,便可下载目标网页html了。知乎爬虫基于HttpClient写了一个网络连接线程池,并且封装了常用的get和post两种网页下载的方法。&/p&&br&&img src=&/51aeefcc46f4e_b.png& data-rawwidth=&566& data-rawheight=&381& class=&origin_image zh-lightbox-thumb& width=&566& data-original=&/51aeefcc46f4e_r.png&&&img src=&/a559b64bc2aea_b.png& data-rawwidth=&575& data-rawheight=&232& class=&origin_image zh-lightbox-thumb& width=&575& data-original=&/a559b64bc2aea_r.png&&&img src=&/04dc48a99adbd91f0a80_b.png& data-rawwidth=&568& data-rawheight=&273& class=&origin_image zh-lightbox-thumb& width=&568& data-original=&/04dc48a99adbd91f0a80_r.png&&&br&&br&&p&&b&(4)自动获取网页编码(爬虫主要技术点3&/b&&b&)&/b&&/p&&p&
自动获取网页编码是确保下载网页html不出现乱码的前提。知乎爬虫中提供方法可以解决绝大部分乱码下载网页乱码问题。&/p&&br&&img src=&/5efd1ac2fefd7ae28ca679_b.png& data-rawwidth=&577& data-rawheight=&186& class=&origin_image zh-lightbox-thumb& width=&577& data-original=&/5efd1ac2fefd7ae28ca679_r.png&&&br&&p&&b&(5)网页解析和提取(爬虫主要技术点4&/b&&b&)&/b&&/p&&p&
使用Java写爬虫,常见的网页解析和提取方法有两种:利用开源Jar包Jsoup和正则。一般来说,Jsoup就可以解决问题,极少出现Jsoup不能解析和提取的情况。Jsoup强大功能,使得解析和提取异常简单。知乎爬虫采用的就是Jsoup。&/p&&br&&img src=&/d6ab8fdc9963bbfdab3fa2_b.png& data-rawwidth=&576& data-rawheight=&255& class=&origin_image zh-lightbox-thumb& width=&576& data-original=&/d6ab8fdc9963bbfdab3fa2_r.png&&&br&&p&&b&(6)正则匹配与提取(爬虫主要技术点5&/b&&b&)&/b&&/p&&p&
虽然知乎爬虫采用Jsoup来进行网页解析,但是仍然封装了正则匹配与提取数据的方法,因为正则还可以做其他的事情,如在知乎爬虫中使用正则来进行url地址的过滤和判断。&/p&&br&&img src=&/1acc2776c98fcf01fed14d_b.png& data-rawwidth=&578& data-rawheight=&255& class=&origin_image zh-lightbox-thumb& width=&578& data-original=&/1acc2776c98fcf01fed14d_r.png&&&br&&p&&b&(7)数据去重(爬虫主要技术点6&/b&&b&)&/b&&/p&&p&
对于爬虫,根据场景不同,可以有不同的去重方案。(1)少量数据,比如几万或者十几万条的情况,使用Map或Set便可;(2)中量数据,比如几百万或者上千万,使用BloomFilter(著名的布隆过滤器)可以解决;(3)大量数据,上亿或者几十亿,Redis可以解决。知乎爬虫给出了BloomFilter的实现,但是采用的Redis进行去重。&/p&&br&&img src=&/12e486ac72f718f9b6572cdc7ff2972d_b.png& data-rawwidth=&616& data-rawheight=&507& class=&origin_image zh-lightbox-thumb& width=&616& data-original=&/12e486ac72f718f9b6572cdc7ff2972d_r.png&&&br&&br&&p&&strong&(8)设计模式等Java&/strong&&strong&高级&/strong&&strong&编程实践&/strong&&/p&&p&
除了以上爬虫主要的技术点之外,知乎爬虫的实现还涉及多种设计模式,主要有链模式、单例模式、组合模式等,同时还使用了Java反射。除了学习爬虫技术,这对学习设计模式和Java反射机制也是一个不错的案例。&/p&&br&&p&&b&4. &/b&&b&一些抓取结果展示&/b&&/p&&img src=&/c59a0a5adaf857b52d966b69adad1937_b.png& data-rawwidth=&573& data-rawheight=&351& class=&origin_image zh-lightbox-thumb& width=&573& data-original=&/c59a0a5adaf857b52d966b69adad1937_r.png&&
这里,耗费了不少的业余时间,专门为爬虫入门或初中级写了一个知乎爬虫。为什么选择知乎呢?应为这里例子可以尽量多的将爬虫涉及的技术点包含进去,同时又不至于那么复杂,学习和提升兼顾。下面说明知乎爬虫的源码和涉及主要技术点:(1)程序package组织 …
&p&&b&声明&/b&:只是经验分享!!!当故事看看就好。不同的人,不同的环境,不具备可复制性。故事看完路还是要自己走的。&/p&&br&&p&我照着萧大的指导找到了工作,已经入职有一个月了,过来将我的过程分享出来,希望能有点参考价值。&/p&&p&先介绍下我的基本情况:211本科土木工程,大学期间学过一丁点儿C语,算是零基础。毕业后在工地上做建筑施工工作五个月,然后转行到一个外包公司做功能测试八个月,9月中旬入职现在的公司,工作内容是用python做openstack的二次开发。&/p&&br&&p&下面说下详细过程:
最早接触python是在《黑客与画家》这本书中,在大学里看闲书读到的,其中有一篇作者特别推崇python,当时没有去了解更多,但对python有了深刻印象。&/p&&p&在工地工作期间有转行的想法时,因为深圳有腾讯,便想不如去做程序员吧。当年的C语考试将近满分,让我对学编程没有畏惧心理。于是便想起了python,在知乎搜索收集了一通信息,建了个收藏夹&a href=&/collection/& class=&internal&&那些幻想&/a&,当时还只是幻想,没有开始行动。&/p&&p&后来下定决心转行了,就找到了《Python简明教程》(A Byte of Python)打印了跟着敲。&/p&&p&当时对于从什么岗位干起两眼一抹黑,机缘巧合,经一个朋友的介绍认识了一个干了十年嵌入式的程序员,他建议我可以&b&从测试岗位干起,工作门槛不高,而且工作相对轻松,有时间自学&/b&。于是投测试岗位的简历,顺利找到一份功能测试工作,元旦后入职。公司的程序员用的是Java。&/p&&p&测试岗位确实比较闲,入职没几天,我就把《Python简明教程》剩下的部分学完了。然后直到过年回家的一个月时间,我陷入了迷茫。Foxmail订阅了国内的各种互联网媒体博客等,每天了解国内外IT界的新闻就花掉几个小时的工作时间,其他时间学一些测试的东西,没有人带,自己上网搜,东一榔头西一棒子的看,&b&觉得有用的记录到印象笔记上&/b&。&/p&&p&过年期间,一声炮响,送来了萧大的&a href=&/xiao-jing-mo/& class=&internal&&编程入门指南 &/a&(现在是1.4版本,较之前的版本有改动)。顿觉前途明亮人生有望了有没有!!!&/p&&p&年后回到深圳,有了指路明灯,还不策马狂奔?花了一周时间去codecademy上敲完python部分,然后开始听&a href=&///?target=http%3A///courses/MITx/6_00_1x/2014_T2/about& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&计算机科学和Python编程导论&i class=&icon-external&&&/i&&/a&,做课后的Problem Set,同时开始支线任务《&a href=&///?target=http%3A///subject/3112503/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Python核心编程&i class=&icon-external&&&/i&&/a&》。还根据萧大的指南做了个流程图:(还是1.0版本的,上传了百度网盘,需要的自取)
Visio版:链接:&a href=&///?target=http%3A///s/1qWpEFoS& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&百度云&i class=&icon-external&&&/i&&/a& 密码:kqtq
PDF版:链接:&a href=&///?target=http%3A///s/1pJtK5DL& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&百度云&i class=&icon-external&&&/i&&/a& 密码:2zk1&/p&&img src=&/7db40a889e0c3ccf32e8_b.png& data-rawwidth=&1181& data-rawheight=&834& class=&origin_image zh-lightbox-thumb& width=&1181& data-original=&/7db40a889e0c3ccf32e8_r.png&&&br&&p&这样听课做题的简单日子只持续到4月上旬,有一个多月效率很低。直到6月才恢复了正常的学习节奏。同时看些闲书,《大话数据结构》《编码的奥秘》这种趣味入门书,不深究,了解个大概。这段时间还去了解了爬虫,没有写出像样的爬虫,但是了解了一些计算机网络通信的知识。另外微信订阅的Crossin的编程教室上出了一系列用web.py框架做小网站的教程,也跟着学了,不过好久没有更新了。&/p&&p&拖拖拉拉到6月底,才学完MIT的导论课,《Python核心编程》的书还没看完。但是那个时候对所在公司的各种制度不满,想尽快学到能干活的程度跳槽。于是正式开始了Flask的学习(《Flask Web开发》书老早就买了,之前零零碎碎看了点),每天下班在公司学到9点。期间有过很多蛋疼的时刻,但还是死磕过来了。到8月上旬,基本过完一遍书,将应用部署到Heroku上折腾了有一周时间。&/p&&p&8月中旬,在书上代码的基础上,自己做一些改动,并翻译成中文界面,再重新部署下,便提了辞职做份简历找工作去了。由于对python的基础掌握不牢不全面,面试期间很不顺利。面了几家后都希望渺茫,想着要不回家再学一个月再来找工作。所幸,在上家公司离职当天收到了现在公司的offer,尽管是以应届生的待遇。&/p&&p&总的来看,我的学习过程分三个阶段:
第一阶段:python基础语法
关键字:《A Byte of Python》跟着书敲,python 3.4,Windows 7,IDLE&/p&&p&第二阶段:复习python语法,了解其他基础知识
关键字:Codecademy,MIT导论课,《Python核心编程》,看书做题
&b&# 补充:python 2.7&/b&&/p&&p&第三阶段:Flask框架
关键字:《Flask Web开发》,Linux(推荐Ubuntu或CentOS),Git,QQ群请教
&b&# 补充:python 2.7&/b&&/p&&p&另外,学的过程中,最好慢慢养成下列习惯:
1. 优先读官方英文文档,其次是别人的经验/理解(博客、百度知道、论坛帖子这些);
2. 善用Google,最近发现AOL也还不错(尽量不用百度,不靠谱耽误事);
3. 你遇到的问题很有可能其他人也遇到过并解决了,Stackoverflow是个好东西;
4. 以上三步都不能解决的问题,再请教别人。
5. 将过程记录下来,常做总结。觉得可能对他人有帮助的,分享出来。&/p&&p&先这样吧,有时间再补充。&/p&&p&----------------------------- 加班间隙,补充点资料 ------------------------------
1. 关于QQ群,直接搜索关键字就可以找到很多,多加几个,择善保留
2. 推荐几个微信订阅号:
PythonCoder(Python开发者)
crossincode(前面提到的Crossin的编程教室)
LinuxHub(Linux爱好者)
3. Git推荐廖雪峰老师的教程:&a href=&///?target=http%3A///wiki/bb000& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Git教程 - 廖雪峰的官方网站&i class=&icon-external&&&/i&&/a&
4. 数据库的学习,推荐《&a href=&///?target=http%3A///subject//& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&SQL必知必会&i class=&icon-external&&&/i&&/a&》这本小册子
5. 前端的学习,去&a href=&///?target=http%3A//.cn/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&w3school&i class=&icon-external&&&/i&&/a&,HTML、JS、CSS做到能看懂能改&/p&&p&技术的学习不是一蹴而就的,但只要你的知识&b&够用&/b&就能找到工作。调整好心态,踏踏实实看书敲代码去吧。&/p&&p&#&a href=&tel:&&&/a&更
觉得读英文文档有困难的童鞋,去装个微软的必应词典,打开取词。好用再来谢我~&/p&&p&#日更&/p&&p&好多同学在刚开始接触Flask的时候,会遇到一些小白问题,很正常,我一开始也这样。不过一个一个解答效率太低,所以来把我当时记录踩坑的博客贴出来:&a href=&///?target=http%3A//blog.csdn.net/leadpython%3Fviewmode%3Dcontents& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&从0到1 日拱一卒&i class=&icon-external&&&/i&&/a&&/p&
声明:只是经验分享!!!当故事看看就好。不同的人,不同的环境,不具备可复制性。故事看完路还是要自己走的。 我照着萧大的指导找到了工作,已经入职有一个月了,过来将我的过程分享出来,希望能有点参考价值。先介绍下我的基本情况:211本科土木工程,大…
python是一种动态编程语言,语法很简洁,某种程度上类似于matlab和SAS,结合python的几种强大的科学计算类库:NumPy(主要是数学基础方面的)、SciPy(数值计算上很强大,包含NumPy)、SymPy(符号运算库)、matplotlib(绘图库)、Traits(程序界面库)等,可以近似地替代matlab、C++和SAS三者。原因在于:&br&&br&第一,python首先是一种完整的动态编程语言,虽然执行效率比不上C++,但是开发效率远远高于C++,学习成本较小,对于金融工程这种专业来讲比C++更加合适,毕竟我们自己做模型的时候更在乎的是如何快速实现模型,而不是模型运行快几秒钟,当然对于金融方面的大规模产品,还是用C++更加合适,这就是程序员的事情了,我们一般不会去编写几万行代码的程序。从这个方面来讲,python可以代替C++。&br&&br&第二,python利用NumPy、SciPy、SymPy、matplotlib等类库,可以完成matlab 90%以上的功能,欠缺的只是极特殊的函数。而且这些都是免费的,中国现在虽然盗版很严重,但是明显正在向正版化的方向发展,以后谁保证能得到免费的matlab?这些类库也在一直发展中,超过matlab只是时间问题。不仅如此,python利用它的界面库做程序界面是非常方便的,用的VB的都还记得可视化编程的爽快,python也可以实现,而且可以实现的更好,这是matlab远远不足的地方。利用这个功能,我们可以用python做好程序后发布给其他人使用,就像使用word这种程序一样,这种方便程度是目前matlab远远不及的。再比如我们要抓取网上的一些数据,利用matlab就比较麻烦,而利用python就极为简单。python可以大大加快我们研究的自动化程度和简单程度,需要的只是好好学习一段时间python而已。&br&&br&第三,python代替SAS。这个方面其实python没有明显的优势,在统计功能上比不过SAS,但是利用python的好处在于:我们不需要再次学习SAS语言,特别是对于金融工程专业来讲,没有那么多时间和必要性去学习SAS,我们又不是搞专业数据统计的。SAS的大部分功能python都可以实现,不过实现起来比SAS困难一些,对于金融工程专业的人来说,选择SAS还不如选择python+Eviews的组合,Eviews是非常简单,几乎不需要学习。python的学习比较简单,也非常值得。&br&&br&选择python的最大好处在于可以节省学习的时间,而且弹性较强,可以适应未来多变的需求。剩下的时间不如去好好研究下怎么在金融工程理论与应用方面创新,就不需要浪费时间在学习工具上了。&br&&br&另外如果需要写爬虫抓取金融数据的话python也是首选,推荐scrapy框架。
python是一种动态编程语言,语法很简洁,某种程度上类似于matlab和SAS,结合python的几种强大的科学计算类库:NumPy(主要是数学基础方面的)、SciPy(数值计算上很强大,包含NumPy)、SymPy(符号运算库)、matplotlib(绘图库)、Traits(程序界面库)等…
已有帐号?
无法登录?
社交帐号登录
5135 人关注
622 条内容
196 人关注
4069 人关注
255 条内容
1218 条内容
5500 人关注
542 条内容}

我要回帖

更多关于 中国量化交易 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信