вторник, 12 июня 2018 г.

Sistema de negociação mysql


Como acessar o banco de dados MySQL de 5 (4)
Introdução.
O problema de interação dos bancos de dados não é novo, mas ainda é relevante. O uso de bancos de dados pode aumentar consideravelmente as possibilidades de: armazenamento e análise do histórico de preços, copiando negociações de uma plataforma de negociação para outra, fornecendo cotações / negociações em tempo real, cálculos analíticos pesados ​​no lado do servidor e / ou usando um cronograma e controle remoto de contas usando tecnologias da web.
De qualquer forma, houve muitas tentativas de se beneficiar da combinação do MySQL e do MySQL, algumas soluções estão disponíveis no CodeBase.
Por exemplo, o "wrapper do MySQL - library for 4" é o projeto, do qual muitos programadores iniciam seus próprios desenvolvimentos com mais adições. Na minha opinião, uma das desvantagens dessa solução é a alocação de matrizes especiais para a leitura de dados do banco de dados.
Outro projeto "MySQL logger 1 - EA for 4" é altamente especializado, ele não usa wrapper para acessar a biblioteca padrão libmysql. dll. Portanto, ele não funciona no 4 Build 600+, já que os tipos de caracteres char foram substituídos por wchar_t, e o uso do tipo int em vez do ponteiro da estrutura TMYSQL causa vazamentos de memória no projeto (a memória alocada não pode ser controlada / libertado).
Outro projeto interessante é o "EAX_Mysql - MySQL library - library for 5". É uma boa implementação. A lista de desvantagens declaradas pelo autor impõe algumas restrições ao seu uso.
Qualquer pessoa que precise usar bancos de dados em seus projetos tem duas opções: desenvolver sua própria solução e conhecer cada parte dela, ou usar / adaptar qualquer solução de terceiros, aprender a usá-la e detectar todos os defeitos que possam atrapalhar seu projeto.
Eu enfrentei essa necessidade e as duas opções enquanto desenvolvia um robô comercial bastante complexo. Tendo pesquisado através de projetos existentes e estudado um número muito grande de soluções, percebi que nenhuma das implementações encontradas poderia ajudar a trazer o meu robô de negociação para o "nível profissional".
Além disso, havia também soluções absurdas, por exemplo: operações DML / DDL (inserção / atualização / exclusão de dados, criação / eliminação de objetos no banco de dados) eram executadas usando o padrão libmysql. dll, e a seleção de dados (SELECT) era realmente implementada como um Solicitação HTTP (usando inet. dll) para um script PHP localizado no servidor web no lado do servidor MySQL. As consultas SQL foram escritas no script PHP.
Em outras palavras, para executar o projeto, era necessário manter os seguintes componentes disponíveis, configurados e em execução: servidor MySQL, servidor web Apache / IIS, scripts PHP / ASP no lado do servidor. Uma combinação de um grande número de tecnologias. É claro que, em algumas circunstâncias, isso pode ser aceitável, mas quando a única tarefa é selecionar dados do banco de dados - isso é um absurdo. Além disso, suportar uma solução tão complicada é demorada.
A maioria das soluções não teve problemas para inserir dados, criar objetos e afins. O problema era a seleção de dados, pois os dados deveriam ser retornados ao ambiente de chamada.
Eu pensei que usar matrizes para esse propósito era impraticável e inconveniente, simplesmente porque no decorrer do desenvolvimento / depuração / suporte do projeto principal, as consultas selecionadas para o banco de dados podem ser alteradas, enquanto você também deve controlar a alocação de memória correta para as matrizes. Bem, isso pode e deve ser evitado.
A seguir discutido & lt; - & gt; A interface MySql é baseada em uma abordagem típica usada no Oracle PL / SQL, no MS SQL T-SQL e no AdoDB - uso de cursores. Essa interface foi desenvolvida visando a facilidade de programação e manutenção, além de um mínimo de componentes. Ele é implementado como um wrapper de DLL na biblioteca padrão libmysql. dll e um conjunto de funções de interface como um arquivo. mqh.
1. & lt; - & gt; Interface do MySQL
A interação entre o terminal (através de programas) pode ser implementada com a ajuda dos componentes abaixo:
1. A biblioteca de interface MySQL. mqh. É adicionado ao projeto usando o diretório #include e pode ser modificado ao seu gosto.
Ele contém as diretivas para importar funções da biblioteca dinâmica MySQL. dll, bem como funções para chamá-las e manipular erros.
2. A biblioteca dinâmica do MySQL. dll. É um wrapper para acessar a funcionalidade da biblioteca padrão libmysql. dll.
Além disso, a biblioteca MySQL. dll processa os resultados das operações e o acesso compartilhado às conexões e cursores do banco de dados. Isso significa que você pode criar e usar várias conexões por vez (de um ou mais programas), manter alguns cursores abertos, com consultas a um ou mais bancos de dados. Mutexes são usados ​​para separar o acesso a recursos compartilhados.
3. A biblioteca dinâmica padrão libmysql. dll é um driver de acesso nativo. Você pode copiá-lo de qualquer distribuição de banco de dados MySql em C: \ Windows \ Sytem32 ou & lt; Terminal & gt; \ 5 \ Bibliotecas (para 4 em & lt; Terminal & gt; \ 4 \ Bibliotecas).
De fato, é responsável por enviar consultas ao banco de dados e recuperar os resultados.
Vamos nos debruçar sobre os pontos principais, tais como: abrir / fechar a conexão, realizar consultas DML / DDL e seleção de dados.
1.1. Abrindo e fechando a conexão.
A função MySqlConnect foi implementada para abrir a conexão com o banco de dados MySQL:

Sistema de negociação MySQL
A Deutsche Boerse afirmou no domingo que certamente comprará o sistema de negociação cambial 360T da Alemanha por 725 milhões de euros (US $ 796 milhões).
360T está entre um punhado de sistemas multi-banco, multi-usuário que realmente mudaram forex durante os anos anteriores. A Deutsche Boerse derrotou os ativos dos EUA, bem como o motorista de troca de dinheiro CME Group (CME. O) no leilão público, de acordo com recursos familiarizados com a oferta.
A escala Bloomberg do papel-moeda versus 10 pares caiu após o ganho ideal de dois dias em três semanas, em meio a recordes, revelando que a produção caiu mais de um ano em março, assim como a produção comercial caiu. A autoconfiança do cliente caiu repentinamente em abril para o nível mais fraco em 7 meses.
Registros econômicos realmente rastrearam estimativas de especialistas desde o começo do mês, de acordo com um procedimento de choque financeiro da Bloomberg.
Atualmente é o momento para liberar sistemas de profissão de artigo que estão aptos para um mercado que resta para introduzir rapidamente enquanto adicionalmente desenvolvendo direito em uma empresa de margem reduzida.
A estrutura da profissão de postagem de blog na área hoje foi criada quando a empresa de voz era o principal método de negociação. Com o comércio digital mudando de voz para a maior parte das compras, a manipulação da profissão também precisa progredir.

Banco de dados mestre de seguranças com MySQL e Python.
Banco de dados mestre de seguranças com MySQL e Python.
Agora que discutimos a ideia por trás de um banco de dados mestre de segurança, é hora de construir um. Para isso, faremos uso de duas tecnologias de código aberto: o banco de dados MySQL e a linguagem de programação Python. No final deste artigo, você terá um mestre de segurança de ações completo com o qual conduzirá mais análises de dados para sua pesquisa de negociação quantitativa.
Benefícios de um banco de dados mestre de valores mobiliários.
Antes de começar vamos recapitular porque ter um banco de dados mestre de títulos local é benéfico:
Velocidade - Com o mestre de títulos no disco rígido local, qualquer aplicativo de dados (como pandas) pode acessar rapidamente os dados sem precisar executar entrada / saída (E / S) lenta em um link de rede latente. Múltiplas fontes - os mestres de segurança permitem o armazenamento direto de múltiplas fontes de dados para o mesmo ticker. Assim, podemos adicionar código de correção de erro personalizado e / ou trilhas de auditoria para corrigir dados em nosso próprio banco de dados. Tempo de Inatividade - Se estivermos confiando em uma conexão com a Internet para nossos dados e o fornecedor estiver com tempo de inatividade, você não poderá realizar pesquisas. Um banco de dados local, com um sistema de replicação, está sempre disponível. Meta-dados - Um mestre de valores mobiliários nos permite armazenar metadados sobre nossas informações de ticker. Podemos incluir tabelas de correspondência de troca, fornecedor e símbolo, ajudando-nos a minimizar os erros da fonte de dados. Transações - Com o tempo, nosso principal de títulos pode crescer para incluir nossa loja transacional de negociação. Isso significa que podemos executar consultas de análise de dados em relação a negociações realizadas no mesmo ambiente de dados que os dados históricos de preços, minimizando a complexidade do aplicativo de negociação.
Há muitos outros motivos para armazenar dados localmente (ou pelo menos em um servidor remoto) em vez de depender de conexões com um fornecedor de dados. Um mestre de valores mobiliários fornece o modelo no qual você pode construir todo o seu armazenamento de dados de aplicativos de negociação algorítmica. No entanto, para os fins deste artigo, estaremos nos concentrando no armazenamento de dados históricos diários.
MySQL para bancos de dados mestre de valores mobiliários.
Para construir e interagir com o banco de dados de títulos, faremos uso do MySQL e Python / pandas. Não vou me debruçar sobre os detalhes de instalação de cada um desses conjuntos de ferramentas, pois o procedimento de instalação é bastante específico da plataforma. No entanto, vou indicá-lo para alguns guias relevantes para ajudá-lo a instalar o software.
Instalando o MySQL.
Para instalar o MySQL, escolha a plataforma apropriada:
Windows - Para ler sobre o procedimento de instalação para instalar o MySQL no Microsoft Windows, por favor, dê uma olhada na documentação do MySQL. Para encontrar os binários para download para Windows, por favor, dê uma olhada nesta página. Mac OSX - Você pode baixar os binários do Mac OSX na página de downloads do MySQL. Alternativamente, você pode instalar o MySQL via homebrew. Este tutorial é útil para começar. Linux / UNIX - Você tem a opção de baixar um binário da sua distribuição ou compilar a partir da origem. Em um sistema Debian / Ubuntu você pode digitar sudo apt-get install mysql-server. Se você estiver em uma distribuição baseada em RPM, como Fedora ou Cent OS, você pode digitar yum install mysql-server. Para construir o MySQL a partir do código-fonte (corajoso!), Por favor, olhe aqui.
Criando um novo banco de dados e usuário.
Agora que o MySQL está instalado em seu sistema, podemos criar um novo banco de dados e um usuário para interagir com ele. Você terá sido solicitado por uma senha root na instalação. Para efetuar logon no MySQL a partir da linha de comando, use a seguinte linha e digite sua senha:
Uma vez que você tenha logado no MySQL, você pode criar um novo banco de dados chamado securities_master e então selecioná-lo:
Depois de criar um banco de dados, é necessário adicionar um novo usuário para interagir com o banco de dados. Embora você possa usar o usuário root, ele é considerado uma má prática do ponto de vista da segurança, pois concede muitas permissões e pode levar a um sistema comprometido. Em uma máquina local, isso é irrelevante, mas em um ambiente de produção remota você certamente precisará criar um usuário com permissões reduzidas. Neste caso, nosso usuário será chamado de sec_user. Lembre-se de substituir a senha por uma senha segura:
As três linhas acima criam e autorizam o usuário a usar o securities_master e aplicar esses privilégios. De agora em diante, qualquer interação que ocorra com o banco de dados fará uso do usuário sec_user.
Projeto de Esquema para o Mestre de Valores Mobiliários de Ações.
Nós agora instalamos o MySQL e configuramos um usuário com o qual podemos interagir com nosso banco de dados. Nesta fase, estamos prontos para construir as tabelas necessárias para manter nossos dados financeiros. Para um mestre de ações simples e direto, criaremos quatro tabelas:
Câmbio - A tabela de troca lista as trocas das quais desejamos obter informações de precificação de ações. Neste caso, será quase exclusivamente a Bolsa de Valores de Nova York (NYSE) e a Associação Nacional de Cotações Automáticas de Distribuidores de Títulos (NASDAQ). DataVendor - Esta tabela lista informações sobre os fornecedores de dados históricos de preços. Nós usaremos o Yahoo Finance para obter nossos dados de fim de dia (EOD). Ao apresentar essa tabela, simplificamos a adição de mais fornecedores, se necessário, como o Google Finance. Símbolo - A tabela de símbolos armazena a lista de símbolos de ticker e informações da empresa. No momento, estaremos evitando problemas como classes de compartilhamento diferentes e vários nomes de símbolos. Nós cobriremos tais questões em artigos posteriores! DailyPrice - Esta tabela armazena as informações diárias de preços para cada segurança. Pode se tornar muito grande se muitos títulos forem adicionados. Por isso, é necessário otimizá-lo para o desempenho.
O MySQL é um banco de dados extremamente flexível, pois permite que você personalize como os dados são armazenados em um mecanismo de armazenamento subjacente. Os dois principais contendores no MySQL são MyISAM e InnoDB. Apesar de não entrar nos detalhes dos mecanismos de armazenamento (dos quais existem muitos!), Direi que o MyISAM é mais útil para leitura rápida (como consultar grandes quantidades de informações sobre preços), mas não suporta transações (necessárias para reverter totalmente uma operação de várias etapas que falha no meio). O InnoDB, enquanto transação segura, é mais lento para leituras.
O InnoDB também permite o bloqueio em nível de linha ao fazer gravações, enquanto o MyISAM bloqueia a tabela inteira ao gravar nela. Isso pode ter problemas de desempenho ao gravar muitas informações em pontos arbitrários na tabela (como com instruções UPDATE). Este é um assunto profundo, por isso vou deixar a discussão para outro dia!
Vamos usar o InnoDB, pois ele é nativamente seguro para transações e fornece bloqueio em nível de linha. Se acharmos que uma tabela está lenta para ser lida, podemos criar índices como uma primeira etapa e, em seguida, alterar o mecanismo de armazenamento subjacente se o desempenho ainda for um problema. Todas as nossas tabelas usarão o conjunto de caracteres UTF-8, pois desejamos oferecer suporte a intercâmbios internacionais. Você pode ler mais sobre a codificação UTF-8 nesta página da Wikipedia.
Vamos começar com o esquema e o código CREATE TABLE SQL para a tabela de troca. Ele armazena a abreviação e o nome da troca (ou seja, NYSE - Bolsa de Valores de Nova York), bem como a localização geográfica. Ele também suporta uma moeda e um deslocamento de fuso horário do UTC. Também armazenamos uma data criada e atualizada pela última vez para nossos propósitos internos. Por fim, definimos a chave do índice primário como ID de inteiro incremental (que é suficiente para manipular registros $ 2 ^ $):
Aqui está o esquema e o código CREATE TABLE SQL para a tabela data_vendor. Ele armazena o nome, o site e o email de suporte. Com o tempo, podemos adicionar mais informações úteis ao fornecedor, como um URL de terminal da API:
Aqui está o esquema e o código CREATE TABLE SQL para a tabela de símbolos. Ele contém um link de chave estrangeira para uma troca (nós apenas apoiaremos instrumentos negociados em bolsa para este artigo), um símbolo de ticker (por exemplo, GOOG), um tipo de instrumento ('estoque' ou 'índice'), o nome da ação ou índice do mercado de ações, um setor de ações e uma moeda.
Aqui está o esquema e o código CREATE TABLE SQL para a tabela daily_price. Esta tabela é onde os dados históricos de preços são realmente armazenados. Prefixamos o nome da tabela com daily_, pois podemos desejar criar dados de resolução de minutos ou segundos em tabelas separadas em uma data posterior para estratégias de frequência mais alta. A tabela contém duas chaves estrangeiras - uma para o fornecedor de dados e outra para um símbolo. Isso identifica unicamente o ponto de dados e nos permite armazenar os mesmos dados de preço para vários fornecedores na mesma tabela. Também armazenamos uma data de preço (ou seja, o período diário durante o qual os dados do OHLC são válidos) e as datas criadas e atualizadas pela última vez para nossos próprios fins.
Os demais campos armazenam os preços de fechamento aberto-high-low-close e ajustado. O Yahoo Finance fornece dividendos e desdobramentos para nós, cujo preço acaba na coluna adj_close_price. Observe que o tipo de dados é decimal (19,4). Ao lidar com dados financeiros, é absolutamente necessário ser preciso. Se tivéssemos usado o tipo de dados float, acabaríamos com erros de arredondamento devido à natureza de como os dados float são armazenados internamente. O campo final armazena o volume de negociação do dia. Isso usa o tipo de dados bigint para que não truncemos acidentalmente volumes com volumes extremamente altos.
Ao inserir todos os comandos SQL acima na linha de comando do MySQL, as quatro tabelas necessárias serão criadas.
Usando Python / pandas para a interação mestre de títulos.
Para começar a povoar o mestre de títulos, é necessário instalar o Python e os pandas.
Instalando Python / pandas.
A maneira moderna de instalar o Python é usar a ferramenta de ambiente virtual virtualenv e o gerenciador de pacotes pip. Para instalar o Python desta maneira, os seguintes passos devem ser seguidos:
Windows - Visite Baixe o Python para obter uma versão do Python. Eu recomendo usar a versão 2.7.5, já que alguns softwares ainda não são compatíveis com o Python 3 (embora isso esteja mudando gradualmente!). Depois de instalar o Python, você precisa fazer o download do setuptools. As etapas finais são executar easy_install pip e pip install virtualenv em seu shell de comando. Mac OSX - A melhor maneira de instalar o Python é usar o homebrew. Então você pode instalar o Python via python de instalação. O próximo passo é executar o pip install virtualenv para instalar o virtualenv. Linux / UNIX - Para uma distribuição com sabor Debian / Ubuntu, digite sudo apt-get install python-pip python-dev para instalar o pip e as bibliotecas de desenvolvimento do Python. Em seguida, execute o pip install virtualenv para instalar globalmente o virtualenv.
Infelizmente, instalar o Python, pip e virtualenv pode ser complicado. Você pode querer olhar para estes tópicos mais detalhados aqui e aqui se você tiver problemas.
Depois que o virtualenv for instalado, você poderá criar um novo ambiente virtual Python em um diretório separado e, em seguida, instalar pandas (comandos para um ambiente Mac OSX / UNIX):
A etapa final é instalar a biblioteca Python-MySQL. Em máquinas com sabor Mac OSX / UNIX, precisamos executar os seguintes comandos:
Agora estamos prontos para começar a interagir com nosso banco de dados MySQL via Python e pandas.
Usando um Mapeador Objeto-Relacional.
Para aqueles de vocês com experiência em administração e desenvolvimento de bancos de dados, você pode estar se perguntando se é mais sensato fazer uso de um Object-Relational Mapper (ORM). Um ORM permite que objetos dentro de uma linguagem de programação sejam diretamente mapeados para tabelas em bancos de dados, de forma que o código do programa não tenha conhecimento do mecanismo de armazenamento subjacente. Eles não estão isentos de problemas, mas podem poupar muito tempo. A economia de tempo geralmente vem à custa do desempenho, no entanto.
Um popular ORM para Python é o SQLAlchemy. Ele permite que você especifique o esquema do banco de dados dentro do próprio Python e, assim, gere automaticamente o código CREATE TABLE. Como escolhemos especificamente o MySQL e estamos preocupados com o desempenho, optei por não usar um ORM para este artigo.
Obtendo dados de símbolos listados.
Vamos começar obtendo todos os símbolos de ticker associados à lista da Standard & Poor's de 500 ações de grande capitalização, ou seja, o S & P500. Claro, isso é simplesmente um exemplo. Se você está negociando no Reino Unido e deseja usar índices domésticos do Reino Unido, você pode igualmente obter a lista de empresas FTSE100 negociadas na London Stock Exchange (LSE).
Wikipedia convenientemente lista os constituintes do S & P500. Vamos raspar este site usando a biblioteca lxml do Python e adicionar o conteúdo diretamente ao MySQL. Em primeiro lugar, verifique se a biblioteca está instalada:
O código a seguir usará a biblioteca lxml e adicionará os símbolos diretamente ao banco de dados MySQL que criamos anteriormente. Lembre-se de substituir 'password' pela sua senha escolhida conforme criado acima:
Neste estágio, todos os 500 componentes do símbolo atual do índice S & P500 estão no banco de dados. Nossa próxima tarefa é realmente obter os dados históricos de fontes separadas e associá-los aos símbolos.
Obtenção de dados de preços.
Para obter os dados históricos dos constituintes atuais do S & P500, devemos primeiro consultar o banco de dados para obter a lista de todos os símbolos. Depois que a lista de símbolos (juntamente com os IDs de símbolo) tiver sido retornada, é possível chamar a API do Yahoo Finance e fazer o download dos dados históricos de preços para cada símbolo. Assim que tivermos cada símbolo, podemos inserir os dados no banco de dados, por sua vez. Aqui está o código Python para realizar isso:
Note que há certamente maneiras de otimizar este procedimento. Se fizermos uso da biblioteca Python ScraPy, por exemplo, obteríamos alta concorrência nos downloads, já que o ScraPy é construído na estrutura Twisted orientada a eventos. No momento, cada download será realizado seqüencialmente.
Interface Python / Pandas para dados de preços.
Agora que baixamos o preço histórico para todos os constituintes atuais do S & P500, queremos poder acessá-lo dentro do Python. A biblioteca dos pandas torna isso extremamente simples. Aqui está um script que obtém os dados da OHLC para o Google durante um determinado período de tempo a partir do nosso banco de dados mestre de títulos e gera a cauda do conjunto de dados:
A saída do script segue:
Isso obviamente é apenas um roteiro simples, mas mostra o quão poderoso ter um mestre em títulos armazenado localmente pode ser. É possível fazer backtest certas estratégias extremamente rapidamente com esta abordagem, já que a E / S do banco de dados será significativamente mais rápida do que através de uma conexão com a Internet.
O próximo passo é automatizar a coleta de dados, de modo que cada símbolo atualize os dados do OHLC após o encerramento do dia de negociação. Usando um agendador de tarefas, como o Agendador de Tarefas do Windows ou o crontab, esse processo pode ser roteirizado para ocorrer em segundo plano. Isso nos aproximará de um sistema de negociação totalmente automatizado.
A Quantcademy.
Participe do portal de associação da Quantcademy que atende à crescente comunidade de traders de quantificação de varejo e aprenda como aumentar a lucratividade de sua estratégia.
Negociação Algorítmica Bem Sucedida.
Como encontrar novas ideias de estratégia de negociação e avaliá-las objetivamente para o seu portfólio usando um mecanismo de backtesting personalizado no Python.
Comércio Algorítmico Avançado.
Como implementar estratégias de negociação avançadas usando análise de séries temporais, aprendizado de máquina e estatísticas Bayesianas com R e Python.

Melhor Linguagem de Programação para Sistemas de Negociação Algorítmica?
Melhor Linguagem de Programação para Sistemas de Negociação Algorítmica?
Uma das perguntas mais freqüentes que recebo no mailbag do QS é "Qual é a melhor linguagem de programação para negociação algorítmica?". A resposta curta é que não há "melhor" linguagem. Parâmetros de estratégia, desempenho, modularidade, desenvolvimento, resiliência e custo devem ser considerados. Este artigo descreverá os componentes necessários de uma arquitetura de sistema de comércio algorítmico e como as decisões relativas à implementação afetam a escolha da linguagem.
Primeiramente, os principais componentes de um sistema de negociação algorítmica serão considerados, como as ferramentas de pesquisa, o otimizador de portfólio, o gerenciador de risco e o mecanismo de execução. Posteriormente, diferentes estratégias de negociação serão examinadas e como elas afetam o design do sistema. Em particular, a frequência de negociação e o volume de negociação provável serão ambos discutidos.
Uma vez que a estratégia de negociação tenha sido selecionada, é necessário arquitetar todo o sistema. Isso inclui a escolha de hardware, o sistema operacional e a resiliência do sistema contra eventos raros e potencialmente catastróficos. Enquanto a arquitetura está sendo considerada, a devida atenção deve ser dada ao desempenho - tanto para as ferramentas de pesquisa quanto para o ambiente de execução ao vivo.
Qual é o sistema de negociação tentando fazer?
Antes de decidir sobre a "melhor" linguagem com a qual escrever um sistema de negociação automatizado, é necessário definir os requisitos. O sistema será puramente baseado em execução? O sistema exigirá um módulo de gerenciamento de risco ou de construção de portfólio? O sistema exigirá um backtester de alto desempenho? Para a maioria das estratégias, o sistema de negociação pode ser dividido em duas categorias: Pesquisa e geração de sinais.
A pesquisa está preocupada com a avaliação de um desempenho da estratégia em relação aos dados históricos. O processo de avaliação de uma estratégia de negociação sobre dados de mercado anteriores é conhecido como backtesting. O tamanho dos dados e a complexidade algorítmica terão um grande impacto na intensidade computacional do backtester. A velocidade e a simultaneidade da CPU costumam ser os fatores limitantes na otimização da velocidade de execução da pesquisa.
A geração de sinais preocupa-se em gerar um conjunto de sinais de negociação de um algoritmo e enviar esses pedidos ao mercado, geralmente por meio de uma corretora. Para determinadas estratégias, é necessário um alto nível de desempenho. Problemas de E / S, como largura de banda de rede e latência, são muitas vezes o fator limitante na otimização de sistemas de execução. Assim, a escolha de idiomas para cada componente de todo o seu sistema pode ser bem diferente.
Tipo, Frequência e Volume de Estratégia.
O tipo de estratégia algorítmica empregada terá um impacto substancial no design do sistema. Será necessário considerar os mercados que estão sendo negociados, a conectividade com fornecedores de dados externos, a frequência e o volume da estratégia, o tradeoff entre facilidade de desenvolvimento e otimização de desempenho, bem como qualquer hardware personalizado, incluindo customização co-localizada servidores, GPUs ou FPGAs que possam ser necessários.
As escolhas tecnológicas para uma estratégia de ações norte-americanas de baixa frequência serão muito diferentes daquelas de uma negociação de estratégia de arbitragem estatística de alta frequência no mercado de futuros. Antes da escolha da linguagem, muitos fornecedores de dados devem ser avaliados quanto à estratégia em questão.
Será necessário considerar a conectividade com o fornecedor, a estrutura de quaisquer APIs, a pontualidade dos dados, os requisitos de armazenamento e a resiliência em face de um fornecedor ficar off-line. Também é aconselhável ter acesso rápido a vários fornecedores! Vários instrumentos têm suas próprias peculiaridades de armazenamento, exemplos dos quais incluem vários símbolos de ticker para ações e datas de vencimento para futuros (para não mencionar quaisquer dados OTC específicos). Isso precisa ser levado em conta no design da plataforma.
A frequência da estratégia é provavelmente um dos maiores impulsionadores de como a pilha de tecnologia será definida. Estratégias que empregam dados com mais freqüência do que minuciosamente ou em segundo lugar exigem consideração significativa com relação ao desempenho.
Uma estratégia que excede as segundas barras (isto é, dados de ticks) leva a um design orientado pelo desempenho como o requisito primário. Para estratégias de alta frequência, uma quantidade substancial de dados de mercado precisará ser armazenada e avaliada. Softwares como HDF5 ou kdb + são comumente usados ​​para essas funções.
Para processar os volumes extensos de dados necessários para aplicativos HFT, um backtester e um sistema de execução extensivamente otimizados devem ser usados. C / C ++ (possivelmente com algum montador) é provável que seja o candidato a idioma mais forte. Estratégias de frequência ultra-alta quase certamente exigirão hardware customizado, como FPGAs, co-location de troca e ajuste de interface de rede / kernal.
Sistemas de pesquisa.
Os sistemas de pesquisa geralmente envolvem uma mistura de desenvolvimento interativo e scripts automatizados. O primeiro ocorre com frequência dentro de um IDE, como o Visual Studio, o MatLab ou o R Studio. Este último envolve extensos cálculos numéricos sobre numerosos parâmetros e pontos de dados. Isso leva a uma escolha de idioma que fornece um ambiente simples para testar o código, mas também fornece desempenho suficiente para avaliar as estratégias em várias dimensões de parâmetro.
IDEs típicos nesse espaço incluem o Microsoft Visual C ++ / C #, que contém extensos utilitários de depuração, recursos de conclusão de código (via "Intellisense") e visões gerais simples da pilha inteira do projeto (via banco de dados ORM, LINQ); MatLab, que é projetado para extensa álgebra linear numérica e operações vetorizadas, mas de uma forma de console interativo; R Studio, que envolve o console de linguagem estatística R em um IDE completo; Eclipse IDE para Linux Java e C ++; e IDEs semi-proprietários como o Enthought Canopy for Python, que incluem bibliotecas de análise de dados como NumPy, SciPy, scikit-learn e pandas em um único ambiente interativo (console).
Para backtesting numérico, todos os idiomas acima são adequados, embora não seja necessário utilizar uma GUI / IDE, pois o código será executado "em segundo plano". A consideração principal neste estágio é a velocidade de execução. Uma linguagem compilada (como C ++) é geralmente útil se as dimensões do parâmetro de backtesting forem grandes. Lembre-se que é necessário ter cuidado com esses sistemas, se for esse o caso!
Linguagens interpretadas, como Python, geralmente usam bibliotecas de alto desempenho como o NumPy / pandas para a etapa de backtesting, a fim de manter um grau razoável de competitividade com equivalentes compilados. Em última análise, a linguagem escolhida para o backtesting será determinada por necessidades algorítmicas específicas, bem como o leque de bibliotecas disponíveis na linguagem (mais sobre isso abaixo). No entanto, a linguagem usada para os ambientes de backtester e de pesquisa pode ser completamente independente daquelas usadas nos componentes de construção de portfólio, gerenciamento de risco e execução, como será visto.
Construção de Carteira e Gestão de Risco.
Os componentes de gerenciamento de risco e de construção de portfólio são frequentemente negligenciados pelos traders algorítmicos de varejo. Isso é quase sempre um erro. Essas ferramentas fornecem o mecanismo pelo qual o capital será preservado. Eles não apenas tentam aliviar o número de apostas "arriscadas", mas também minimizam a rotatividade dos negócios, reduzindo os custos de transação.
Versões sofisticadas desses componentes podem ter um efeito significativo na qualidade e consistência da lucratividade. É fácil criar uma estratégia estável, pois o mecanismo de construção de portfólio e o gerenciador de risco podem ser facilmente modificados para lidar com vários sistemas. Assim, eles devem ser considerados componentes essenciais no início do projeto de um sistema de negociação algorítmica.
O trabalho do sistema de construção de portfólio é pegar um conjunto de negócios desejados e produzir o conjunto de negociações reais que minimizam o churn, manter exposições a vários fatores (como setores, classes de ativos, volatilidade, etc.) e otimizar a alocação de capital para vários estratégias em um portfólio.
A construção de portfólio geralmente se reduz a um problema de álgebra linear (como uma fatoração de matriz) e, portanto, o desempenho é altamente dependente da eficácia da implementação da álgebra linear numérica disponível. Bibliotecas comuns incluem uBLAS, LAPACK e NAG para C ++. O MatLab também possui operações de matriz amplamente otimizadas. O Python utiliza o NumPy / SciPy para tais cálculos. Um portfólio freqüentemente reequilibrado exigirá uma biblioteca matricial compilada (e bem otimizada!) Para realizar este passo, de modo a não afunilar o sistema de negociação.
O gerenciamento de riscos é outra parte extremamente importante de um sistema de negociação algorítmica. O risco pode vir de várias formas: aumento da volatilidade (embora isso possa ser visto como desejável para certas estratégias!), Aumento de correlações entre classes de ativos, inadimplência de terceiros, paralisações de servidores, eventos "black swan" e erros não detectados no código de negociação. para nomear alguns.
Os componentes de gerenciamento de risco tentam antecipar os efeitos da volatilidade excessiva e correlação entre as classes de ativos e seus efeitos subseqüentes sobre o capital comercial. Muitas vezes, isso reduz a um conjunto de cálculos estatísticos, como os "testes de estresse" de Monte Carlo. Isso é muito semelhante às necessidades computacionais de um mecanismo de precificação de derivativos e, como tal, será vinculado à CPU. Estas simulações são altamente paralelizáveis ​​(veja abaixo) e, até certo ponto, é possível "lançar hardware no problema".
Sistemas de Execução.
O trabalho do sistema de execução é receber sinais de negociação filtrados dos componentes de construção de carteira e gestão de risco e enviá-los para uma corretora ou outros meios de acesso ao mercado. Para a maioria das estratégias de negociação algorítmica de varejo, isso envolve uma conexão API ou FIX para uma corretora como a Interactive Brokers. The primary considerations when deciding upon a language include quality of the API, language-wrapper availability for an API, execution frequency and the anticipated slippage.
The "quality" of the API refers to how well documented it is, what sort of performance it provides, whether it needs standalone software to be accessed or whether a gateway can be established in a headless fashion (i. e. no GUI). In the case of Interactive Brokers, the Trader WorkStation tool needs to be running in a GUI environment in order to access their API. I once had to install a Desktop Ubuntu edition onto an Amazon cloud server to access Interactive Brokers remotely, purely for this reason!
Most APIs will provide a C++ and/or Java interface. It is usually up to the community to develop language-specific wrappers for C#, Python, R, Excel and MatLab. Note that with every additional plugin utilised (especially API wrappers) there is scope for bugs to creep into the system. Always test plugins of this sort and ensure they are actively maintained. A worthwhile gauge is to see how many new updates to a codebase have been made in recent months.
Execution frequency is of the utmost importance in the execution algorithm. Note that hundreds of orders may be sent every minute and as such performance is critical. Slippage will be incurred through a badly-performing execution system and this will have a dramatic impact on profitability.
Statically-typed languages (see below) such as C++/Java are generally optimal for execution but there is a trade-off in development time, testing and ease of maintenance. Dynamically-typed languages, such as Python and Perl are now generally "fast enough". Always make sure the components are designed in a modular fashion (see below) so that they can be "swapped out" out as the system scales.
Architectural Planning and Development Process.
The components of a trading system, its frequency and volume requirements have been discussed above, but system infrastructure has yet to be covered. Those acting as a retail trader or working in a small fund will likely be "wearing many hats". It will be necessary to be covering the alpha model, risk management and execution parameters, and also the final implementation of the system. Before delving into specific languages the design of an optimal system architecture will be discussed.
Separation of Concerns.
One of the most important decisions that must be made at the outset is how to "separate the concerns" of a trading system. In software development, this essentially means how to break up the different aspects of the trading system into separate modular components.
By exposing interfaces at each of the components it is easy to swap out parts of the system for other versions that aid performance, reliability or maintenance, without modifying any external dependency code. This is the "best practice" for such systems. For strategies at lower frequencies such practices are advised. For ultra high frequency trading the rulebook might have to be ignored at the expense of tweaking the system for even more performance. A more tightly coupled system may be desirable.
Creating a component map of an algorithmic trading system is worth an article in itself. However, an optimal approach is to make sure there are separate components for the historical and real-time market data inputs, data storage, data access API, backtester, strategy parameters, portfolio construction, risk management and automated execution systems.
For instance, if the data store being used is currently underperforming, even at significant levels of optimisation, it can be swapped out with minimal rewrites to the data ingestion or data access API. As far the as the backtester and subsequent components are concerned, there is no difference.
Another benefit of separated components is that it allows a variety of programming languages to be used in the overall system. There is no need to be restricted to a single language if the communication method of the components is language independent. This will be the case if they are communicating via TCP/IP, Zero or some other language-independent protocol.
As a concrete example, consider the case of a backtesting system being written in C++ for "number crunching" performance, while the portfolio manager and execution systems are written in Python using SciPy and IBPy.
Performance Considerations.
Performance is a significant consideration for most trading strategies. For higher frequency strategies it is the most important factor. "Performance" covers a wide range of issues, such as algorithmic execution speed, network latency, bandwidth, data I/O, concurrency/parallelism and scaling. Each of these areas are individually covered by large textbooks, so this article will only scratch the surface of each topic. Architecture and language choice will now be discussed in terms of their effects on performance.
The prevailing wisdom as stated by Donald Knuth, one of the fathers of Computer Science, is that "premature optimisation is the root of all evil". This is almost always the case - except when building a high frequency trading algorithm! For those who are interested in lower frequency strategies, a common approach is to build a system in the simplest way possible and only optimise as bottlenecks begin to appear.
Profiling tools are used to determine where bottlenecks arise. Profiles can be made for all of the factors listed above, either in a MS Windows or Linux environment. There are many operating system and language tools available to do so, as well as third party utilities. Language choice will now be discussed in the context of performance.
C++, Java, Python, R and MatLab all contain high-performance libraries (either as part of their standard or externally) for basic data structure and algorithmic work. C++ ships with the Standard Template Library, while Python contains NumPy/SciPy. Common mathematical tasks are to be found in these libraries and it is rarely beneficial to write a new implementation.
One exception is if highly customised hardware architecture is required and an algorithm is making extensive use of proprietary extensions (such as custom caches). However, often "reinvention of the wheel" wastes time that could be better spent developing and optimising other parts of the trading infrastructure. Development time is extremely precious especially in the context of sole developers.
Latency is often an issue of the execution system as the research tools are usually situated on the same machine. For the former, latency can occur at multiple points along the execution path. Databases must be consulted (disk/network latency), signals must be generated (operating syste, kernal messaging latency), trade signals sent (NIC latency) and orders processed (exchange systems internal latency).
For higher frequency operations it is necessary to become intimately familiar with kernal optimisation as well as optimisation of network transmission. This is a deep area and is significantly beyond the scope of the article but if an UHFT algorithm is desired then be aware of the depth of knowledge required!
Caching is very useful in the toolkit of a quantitative trading developer. Caching refers to the concept of storing frequently accessed data in a manner which allows higher-performance access, at the expense of potential staleness of the data. A common use case occurs in web development when taking data from a disk-backed relational database and putting it into memory. Any subsequent requests for the data do not have to "hit the database" and so performance gains can be significant.
For trading situations caching can be extremely beneficial. For instance, the current state of a strategy portfolio can be stored in a cache until it is rebalanced, such that the list doesn't need to be regenerated upon each loop of the trading algorithm. Such regeneration is likely to be a high CPU or disk I/O operation.
However, caching is not without its own issues. Regeneration of cache data all at once, due to the volatilie nature of cache storage, can place significant demand on infrastructure. Another issue is dog-piling , where multiple generations of a new cache copy are carried out under extremely high load, which leads to cascade failure.
Dynamic memory allocation is an expensive operation in software execution. Thus it is imperative for higher performance trading applications to be well-aware how memory is being allocated and deallocated during program flow. Newer language standards such as Java, C# and Python all perform automatic garbage collection , which refers to deallocation of dynamically allocated memory when objects go out of scope .
Garbage collection is extremely useful during development as it reduces errors and aids readability. However, it is often sub-optimal for certain high frequency trading strategies. Custom garbage collection is often desired for these cases. In Java, for instance, by tuning the garbage collector and heap configuration, it is possible to obtain high performance for HFT strategies.
C++ doesn't provide a native garbage collector and so it is necessary to handle all memory allocation/deallocation as part of an object's implementation. While potentially error prone (potentially leading to dangling pointers) it is extremely useful to have fine-grained control of how objects appear on the heap for certain applications. When choosing a language make sure to study how the garbage collector works and whether it can be modified to optimise for a particular use case.
Many operations in algorithmic trading systems are amenable to parallelisation . This refers to the concept of carrying out multiple programmatic operations at the same time, i. e in "parallel". So-called "embarassingly parallel" algorithms include steps that can be computed fully independently of other steps. Certain statistical operations, such as Monte Carlo simulations, are a good example of embarassingly parallel algorithms as each random draw and subsequent path operation can be computed without knowledge of other paths.
Other algorithms are only partially parallelisable. Fluid dynamics simulations are such an example, where the domain of computation can be subdivided, but ultimately these domains must communicate with each other and thus the operations are partially sequential. Parallelisable algorithms are subject to Amdahl's Law, which provides a theoretical upper limit to the performance increase of a parallelised algorithm when subject to $N$ separate processes (e. g. on a CPU core or thread ).
Parallelisation has become increasingly important as a means of optimisation since processor clock-speeds have stagnated, as newer processors contain many cores with which to perform parallel calculations. The rise of consumer graphics hardware (predominently for video games) has lead to the development of Graphical Processing Units (GPUs), which contain hundreds of "cores" for highly concurrent operations. Such GPUs are now very affordable. High-level frameworks, such as Nvidia's CUDA have lead to widespread adoption in academia and finance.
Such GPU hardware is generally only suitable for the research aspect of quantitative finance, whereas other more specialised hardware (including Field-Programmable Gate Arrays - FPGAs) are used for (U)HFT. Nowadays, most modern langauges support a degree of concurrency/multithreading. Thus it is straightforward to optimise a backtester, since all calculations are generally independent of the others.
Scaling in software engineering and operations refers to the ability of the system to handle consistently increasing loads in the form of greater requests, higher processor usage and more memory allocation. In algorithmic trading a strategy is able to scale if it can accept larger quantities of capital and still produce consistent returns. The trading technology stack scales if it can endure larger trade volumes and increased latency, without bottlenecking .
While systems must be designed to scale, it is often hard to predict beforehand where a bottleneck will occur. Rigourous logging, testing, profiling and monitoring will aid greatly in allowing a system to scale. Languages themselves are often described as "unscalable". This is usually the result of misinformation, rather than hard fact. It is the total technology stack that should be ascertained for scalability, not the language. Clearly certain languages have greater performance than others in particular use cases, but one language is never "better" than another in every sense.
One means of managing scale is to separate concerns, as stated above. In order to further introduce the ability to handle "spikes" in the system (i. e. sudden volatility which triggers a raft of trades), it is useful to create a "message queuing architecture". This simply means placing a message queue system between components so that orders are "stacked up" if a certain component is unable to process many requests.
Rather than requests being lost they are simply kept in a stack until the message is handled. This is particularly useful for sending trades to an execution engine. If the engine is suffering under heavy latency then it will back up trades. A queue between the trade signal generator and the execution API will alleviate this issue at the expense of potential trade slippage. A well-respected open source message queue broker is Rabbit.
Hardware and Operating Systems.
The hardware running your strategy can have a significant impact on the profitability of your algorithm. This is not an issue restricted to high frequency traders either. A poor choice in hardware and operating system can lead to a machine crash or reboot at the most inopportune moment. Thus it is necessary to consider where your application will reside. The choice is generally between a personal desktop machine, a remote server, a "cloud" provider or an exchange co-located server.
Desktop machines are simple to install and administer, especially with newer user friendly operating systems such as Windows 7/8, Mac OSX and Ubuntu. Desktop systems do possess some significant drawbacks, however. The foremost is that the versions of operating systems designed for desktop machines are likely to require reboots/patching (and often at the worst of times!). They also use up more computational resources by the virtue of requiring a graphical user interface (GUI).
Utilising hardware in a home (or local office) environment can lead to internet connectivity and power uptime problems. The main benefit of a desktop system is that significant computational horsepower can be purchased for the fraction of the cost of a remote dedicated server (or cloud based system) of comparable speed.
A dedicated server or cloud-based machine, while often more expensive than a desktop option, allows for more significant redundancy infrastructure, such as automated data backups, the ability to more straightforwardly ensure uptime and remote monitoring. They are harder to administer since they require the ability to use remote login capabilities of the operating system.
In Windows this is generally via the GUI Remote Desktop Protocol (RDP). In Unix-based systems the command-line Secure SHell (SSH) is used. Unix-based server infrastructure is almost always command-line based which immediately renders GUI-based programming tools (such as MatLab or Excel) to be unusable.
A co-located server, as the phrase is used in the capital markets, is simply a dedicated server that resides within an exchange in order to reduce latency of the trading algorithm. This is absolutely necessary for certain high frequency trading strategies, which rely on low latency in order to generate alpha.
The final aspect to hardware choice and the choice of programming language is platform-independence. Is there a need for the code to run across multiple different operating systems? Is the code designed to be run on a particular type of processor architecture, such as the Intel x86/x64 or will it be possible to execute on RISC processors such as those manufactured by ARM? These issues will be highly dependent upon the frequency and type of strategy being implemented.
Resilience and Testing.
One of the best ways to lose a lot of money on algorithmic trading is to create a system with no resiliency . This refers to the durability of the sytem when subject to rare events, such as brokerage bankruptcies, sudden excess volatility, region-wide downtime for a cloud server provider or the accidental deletion of an entire trading database. Years of profits can be eliminated within seconds with a poorly-designed architecture. It is absolutely essential to consider issues such as debuggng, testing, logging, backups, high-availability and monitoring as core components of your system.
It is likely that in any reasonably complicated custom quantitative trading application at least 50% of development time will be spent on debugging, testing and maintenance.
Nearly all programming languages either ship with an associated debugger or possess well-respected third-party alternatives. In essence, a debugger allows execution of a program with insertion of arbitrary break points in the code path, which temporarily halt execution in order to investigate the state of the system. The main benefit of debugging is that it is possible to investigate the behaviour of code prior to a known crash point .
Debugging is an essential component in the toolbox for analysing programming errors. However, they are more widely used in compiled languages such as C++ or Java, as interpreted languages such as Python are often easier to debug due to fewer LOC and less verbose statements. Despite this tendency Python does ship with the pdb, which is a sophisticated debugging tool. The Microsoft Visual C++ IDE possesses extensive GUI debugging utilities, while for the command line Linux C++ programmer, the gdb debugger exists.
Testing in software development refers to the process of applying known parameters and results to specific functions, methods and objects within a codebase, in order to simulate behaviour and evaluate multiple code-paths, helping to ensure that a system behaves as it should. A more recent paradigm is known as Test Driven Development (TDD), where test code is developed against a specified interface with no implementation. Prior to the completion of the actual codebase all tests will fail. As code is written to "fill in the blanks", the tests will eventually all pass, at which point development should cease.
TDD requires extensive upfront specification design as well as a healthy degree of discipline in order to carry out successfully. In C++, Boost provides a unit testing framework. In Java, the JUnit library exists to fulfill the same purpose. Python also has the unittest module as part of the standard library. Many other languages possess unit testing frameworks and often there are multiple options.
In a production environment, sophisticated logging is absolutely essential. Logging refers to the process of outputting messages, with various degrees of severity, regarding execution behaviour of a system to a flat file or database. Logs are a "first line of attack" when hunting for unexpected program runtime behaviour. Unfortunately the shortcomings of a logging system tend only to be discovered after the fact! As with backups discussed below, a logging system should be given due consideration BEFORE a system is designed.
Both Microsoft Windows and Linux come with extensive system logging capability and programming languages tend to ship with standard logging libraries that cover most use cases. It is often wise to centralise logging information in order to analyse it at a later date, since it can often lead to ideas about improving performance or error reduction, which will almost certainly have a positive impact on your trading returns.
While logging of a system will provide information about what has transpired in the past, monitoring of an application will provide insight into what is happening right now . All aspects of the system should be considered for monitoring. System level metrics such as disk usage, available memory, network bandwidth and CPU usage provide basic load information.
Trading metrics such as abnormal prices/volume, sudden rapid drawdowns and account exposure for different sectors/markets should also be continuously monitored. Further, a threshold system should be instigated that provides notification when certain metrics are breached, elevating the notification method (email, SMS, automated phone call) depending upon the severity of the metric.
System monitoring is often the domain of the system administrator or operations manager. However, as a sole trading developer, these metrics must be established as part of the larger design. Many solutions for monitoring exist: proprietary, hosted and open source, which allow extensive customisation of metrics for a particular use case.
Backups and high availability should be prime concerns of a trading system. Consider the following two questions: 1) If an entire production database of market data and trading history was deleted (without backups) how would the research and execution algorithm be affected? 2) If the trading system suffers an outage for an extended period (with open positions) how would account equity and ongoing profitability be affected? The answers to both of these questions are often sobering!
It is imperative to put in place a system for backing up data and also for testing the restoration of such data. Many individuals do not test a restore strategy. If recovery from a crash has not been tested in a safe environment, what guarantees exist that restoration will be available at the worst possible moment?
Similarly, high availability needs to be "baked in from the start". Redundant infrastructure (even at additional expense) must always be considered, as the cost of downtime is likely to far outweigh the ongoing maintenance cost of such systems. I won't delve too deeply into this topic as it is a large area, but make sure it is one of the first considerations given to your trading system.
Choosing a Language.
Considerable detail has now been provided on the various factors that arise when developing a custom high-performance algorithmic trading system. The next stage is to discuss how programming languages are generally categorised.
Type Systems.
When choosing a language for a trading stack it is necessary to consider the type system . The languages which are of interest for algorithmic trading are either statically - or dynamically-typed . A statically-typed language performs checks of the types (e. g. integers, floats, custom classes etc) during the compilation process. Such languages include C++ and Java. A dynamically-typed language performs the majority of its type-checking at runtime. Such languages include Python, Perl and JavaScript.
For a highly numerical system such as an algorithmic trading engine, type-checking at compile time can be extremely beneficial, as it can eliminate many bugs that would otherwise lead to numerical errors. However, type-checking doesn't catch everything, and this is where exception handling comes in due to the necessity of having to handle unexpected operations. 'Dynamic' languages (i. e. those that are dynamically-typed) can often lead to run-time errors that would otherwise be caught with a compilation-time type-check. For this reason, the concept of TDD (see above) and unit testing arose which, when carried out correctly, often provides more safety than compile-time checking alone.
Another benefit of statically-typed languages is that the compiler is able to make many optimisations that are otherwise unavailable to the dynamically - typed language, simply because the type (and thus memory requirements) are known at compile-time. In fact, part of the inefficiency of many dynamically-typed languages stems from the fact that certain objects must be type-inspected at run-time and this carries a performance hit. Libraries for dynamic languages, such as NumPy/SciPy alleviate this issue due to enforcing a type within arrays.
Open Source or Proprietary?
One of the biggest choices available to an algorithmic trading developer is whether to use proprietary (commercial) or open source technologies. Existem vantagens e desvantagens para ambas as abordagens. It is necessary to consider how well a language is supported, the activity of the community surrounding a language, ease of installation and maintenance, quality of the documentation and any licensing/maintenance costs.
The Microsoft. NET stack (including Visual C++, Visual C#) and MathWorks' MatLab are two of the larger proprietary choices for developing custom algorithmic trading software. Both tools have had significant "battle testing" in the financial space, with the former making up the predominant software stack for investment banking trading infrastructure and the latter being heavily used for quantitative trading research within investment funds.
Microsoft and MathWorks both provide extensive high quality documentation for their products. Further, the communities surrounding each tool are very large with active web forums for both. The. NET software allows cohesive integration with multiple languages such as C++, C# and VB, as well as easy linkage to other Microsoft products such as the SQL Server database via LINQ. MatLab also has many plugins/libraries (some free, some commercial) for nearly any quantitative research domain.
There are also drawbacks. With either piece of software the costs are not insignificant for a lone trader (although Microsoft does provide entry-level version of Visual Studio for free). Microsoft tools "play well" with each other, but integrate less well with external code. Visual Studio must also be executed on Microsoft Windows, which is arguably far less performant than an equivalent Linux server which is optimally tuned.
MatLab also lacks a few key plugins such as a good wrapper around the Interactive Brokers API, one of the few brokers amenable to high-performance algorithmic trading. The main issue with proprietary products is the lack of availability of the source code. This means that if ultra performance is truly required, both of these tools will be far less attractive.
Open source tools have been industry grade for sometime. Much of the alternative asset space makes extensive use of open-source Linux, MySQL/PostgreSQL, Python, R, C++ and Java in high-performance production roles. However, they are far from restricted to this domain. Python and R, in particular, contain a wealth of extensive numerical libraries for performing nearly any type of data analysis imaginable, often at execution speeds comparable to compiled languages, with certain caveats.
The main benefit of using interpreted languages is the speed of development time. Python and R require far fewer lines of code (LOC) to achieve similar functionality, principally due to the extensive libraries. Further, they often allow interactive console based development, rapidly reducing the iterative development process.
Given that time as a developer is extremely valuable, and execution speed often less so (unless in the HFT space), it is worth giving extensive consideration to an open source technology stack. Python and R possess significant development communities and are extremely well supported, due to their popularity. Documentation is excellent and bugs (at least for core libraries) remain scarce.
Open source tools often suffer from a lack of a dedicated commercial support contract and run optimally on systems with less-forgiving user interfaces. A typical Linux server (such as Ubuntu) will often be fully command-line oriented. In addition, Python and R can be slow for certain execution tasks. There are mechanisms for integrating with C++ in order to improve execution speeds, but it requires some experience in multi-language programming.
While proprietary software is not immune from dependency/versioning issues it is far less common to have to deal with incorrect library versions in such environments. Open source operating systems such as Linux can be trickier to administer.
I will venture my personal opinion here and state that I build all of my trading tools with open source technologies. In particular I use: Ubuntu, MySQL, Python, C++ and R. The maturity, community size, ability to "dig deep" if problems occur and lower total cost ownership (TCO) far outweigh the simplicity of proprietary GUIs and easier installations. Having said that, Microsoft Visual Studio (especially for C++) is a fantastic Integrated Development Environment (IDE) which I would also highly recommend.
Batteries Included?
The header of this section refers to the "out of the box" capabilities of the language - what libraries does it contain and how good are they? This is where mature languages have an advantage over newer variants. C++, Java and Python all now possess extensive libraries for network programming, HTTP, operating system interaction, GUIs, regular expressions (regex), iteration and basic algorithms.
C++ is famed for its Standard Template Library (STL) which contains a wealth of high performance data structures and algorithms "for free". Python is known for being able to communicate with nearly any other type of system/protocol (especially the web), mostly through its own standard library. R has a wealth of statistical and econometric tools built in, while MatLab is extremely optimised for any numerical linear algebra code (which can be found in portfolio optimisation and derivatives pricing, for instance).
Outside of the standard libraries, C++ makes use of the Boost library, which fills in the "missing parts" of the standard library. In fact, many parts of Boost made it into the TR1 standard and subsequently are available in the C++11 spec, including native support for lambda expressions and concurrency.
Python has the high performance NumPy/SciPy/Pandas data analysis library combination, which has gained widespread acceptance for algorithmic trading research. Further, high-performance plugins exist for access to the main relational databases, such as MySQL++ (MySQL/C++), JDBC (Java/MatLab), MySQLdb (MySQL/Python) and psychopg2 (PostgreSQL/Python). Python can even communicate with R via the RPy plugin!
An often overlooked aspect of a trading system while in the initial research and design stage is the connectivity to a broker API. Most APIs natively support C++ and Java, but some also support C# and Python, either directly or with community-provided wrapper code to the C++ APIs. In particular, Interactive Brokers can be connected to via the IBPy plugin. If high-performance is required, brokerages will support the FIX protocol.
Conclusão.
As is now evident, the choice of programming language(s) for an algorithmic trading system is not straightforward and requires deep thought. The main considerations are performance, ease of development, resiliency and testing, separation of concerns, familiarity, maintenance, source code availability, licensing costs and maturity of libraries.
The benefit of a separated architecture is that it allows languages to be "plugged in" for different aspects of a trading stack, as and when requirements change. A trading system is an evolving tool and it is likely that any language choices will evolve along with it.
A Quantcademy.
Participe do portal de associação da Quantcademy que atende à crescente comunidade de traders de quantificação de varejo e aprenda como aumentar a lucratividade de sua estratégia.
Negociação Algorítmica Bem Sucedida.
Como encontrar novas ideias de estratégia de negociação e avaliá-las objetivamente para o seu portfólio usando um mecanismo de backtesting personalizado no Python.
Comércio Algorítmico Avançado.
Como implementar estratégias de negociação avançadas usando análise de séries temporais, aprendizado de máquina e estatísticas Bayesianas com R e Python.

Building an E-mini Trading System Using PHP and Advanced MySQL Queries.
This is also called E-mini S&P 500 futures , one of the most commonly traded equities/futures.
As of September 2009, there was no currently working trading system on the Internet powered by PHP and MySQL despite the platform’s popularity among open source communities.
A trading system is used to enter and exit a trade in a stock or futures market. Although in exiting a trade to grab profits and control losses, money management is a more useful tool than a trading system.
To create a fully working trading system, you need the following processes:
The raw data should be taken from a reputable source for S&P 500 index data. In this article, we will be using Yahoo! Finance data . The export file type is mostly. csv and Excel, so you first need to export the raw data to the MySQL database. (See details below)
The heart of the process is the trading system. It is a method for analyzing raw data and making judgments. Every trader has his or her own trading system to follow, but in this example, we will use the following rules:
Rule 1 : Define Delta as the difference between “50 days moving average “and “200 moving average.” If the delta is positive, it indicates a bullish trend, otherwise it’s bearish. You can read more about moving averages .
Rule 2 : Define % Strength of the trend as Delta/MA 200. This quantifies the strength of the trend. Apply historical data (define limits) for judgment (computation of limits is out of scope for this tutorial). This is more like a trend confirmation.
Use PHP to display the data in HTML tables while using MySQL advance queries (computing average and getting index data) to do some calculations of the moving average.
Step 1 : Download raw S&P 500 index data from finance. yahoo/q/hp? s=%5EGSPC and format the Excel table to look like the image below (delete unneeded columns like trading volumes and add the new column “entry”):
Your MySQL table should look like the one above. However, the above screen shot is still in. csv format.
Step 2 : Convert the. csv to. sql and upload to your MySQL server. You can read an article that explains how to convert your Excel worksheet .
Step 3 : It’s time to write the PHP script. First we connect to the database using the script below:
//connect to mysql database.
$username = "your mysql username";
$password = "your mysql password";
$hostname = "your mysql hostname";
$database = "your mysql database";
$dbhandle = mysql_connect($hostname, $username, $password)
or die("Unable to connect to MySQL");
//select a database to work with.
or die("Could not select $database");
Step 4 : In order to know how many rows are in the database, which is a value that will be used in our computation, we will query MySQL:
//count the number of rows in the database including the latest entry.
$result1 = mysql_query("SELECT * FROM `sp500`")
// store the record of the "example" table into $row.
or die("Invalid query: " . mysql_error());
// Print out the contents of the entry.
The $numberofentries contains the maximum number of rows in the MySQL table (in the above screenshot it is 15020). The data in the MySQL table will be arranged from the latest entries all the way down to old entries. Refer to the screenshot above.
The mysql_num_rows will be used to count the number of rows in the table SP500.
Step 5 : Compute the last entry to be shown in the HTML table. Since we will be showing only the latest 50 rows, the following will be used:
$lastentry = $numberofentries -50 +1;
This means that, for example, we have 15020 entries in the table; we would like to show them starting from Entry # 15020 to (15020-50+1) or Entry # 14971. This value, as well as the maximum entry above, will change as trading days goes by.
Step 6 : Do a MySQL query to extract the latest 50 days of entries.
$result2 = mysql_query("SELECT * FROM `sp500` WHERE `entry`>=’$lastentry’ AND `entry`<=’$numberofentries’ ORDER BY `entry` DESC")
The tricky part is to sort the resulted queries by descending order. This will ensure that output results are sorted from the newest to oldest entries.
Step 7 : Define the limits for the 200-day moving average and 50-day moving average:
/Define limits for 200 day moving average.
$lowerlimit= $numberofentries – 200 + 1;
//Define limits for 50 day moving average.
$lowerlimit50= $numberofentries – 50 + 1;
Step 8 : Define the MySQL query to calculate the 200-day moving average.
$result3 = mysql_query("SELECT avg(close) from `sp500` WHERE `entry`>=’$lowerlimit’ AND `entry`<=’$upperlimit’")
// store the record of the "example" table into $row.
or die("Invalid query: " . mysql_error());
// Print out the contents of the entry.
Step 9 : Define the MySQL query to calculate the 50-day moving average.
$result4 = mysql_query("SELECT avg(close) from `sp500` WHERE `entry`>=’$lowerlimit50′ AND `entry`<=’$upperlimit’")
// store the record of the "example" table into $row.
or die("Invalid query: " . mysql_error());
// Print out the contents of the entry.
Step 10 : Assign to variables and round numbers for easier HTML display.
Step 11 : Compute DELTA and round results.
Step 12 : Compute %STRENGTH and round results.
Step 13 : Create the PHP script to make “recommendations.”
$recommendation = ‘above SATURATED BULL TREND( VERY HIGH RISK BUYING)’;
$recommendation = ‘CONFIRMED BULL TREND (HIGH RISK BUYING)’;
$recommendation = ‘CONFIRMED BULL TREND (LOW RISK BUYING)’;
$recommendation = ‘UNCONFIRMED BULL TREND’;
$recommendation = ‘UNCONFIRMED BEAR TREND’;
$recommendation = ‘CONFIRMED BEAR TREND (LOW RISK SHORT)’;
$recommendation = ‘SATURATED BEAR TREND( VERY HIGH RISK SHORT)’;
Note: threshold values were taken from historical records of S&P. These computations are out of the scope of this tutorial.
Step 14 : Combine all queries above and computations. Then print to an HTML table using a WHILE loop:
if (mysql_num_rows($result2) >0)
//echo ‘<table width=100% cellpadding=10 cellspacing=10 border=1>’;
while ($row2= mysql_fetch_row($result2))
$result3 = mysql_query("SELECT avg(close) from `sp500` WHERE `entry`>=’$lowerlimit’ AND `entry`<=’$upperlimit’")
// store the record of the "example" table into $row.
or die("Invalid query: " . mysql_error());
// Print out the contents of the entry.
$result4 = mysql_query("SELECT avg(close) from `sp500` WHERE `entry`>=’$lowerlimit50′ AND `entry`<=’$upperlimit’")
// store the record of the "example" table into $row.
or die("Invalid query: " . mysql_error());
// Print out the contents of the entry.
$recommendation = ‘above SATURATED BULL TREND( VERY HIGH RISK BUYING)’;
$recommendation = ‘CONFIRMED BULL TREND (HIGH RISK BUYING)’;
$recommendation = ‘CONFIRMED BULL TREND (LOW RISK BUYING)’;
$recommendation = ‘UNCONFIRMED BULL TREND’;
$recommendation = ‘UNCONFIRMED BEAR TREND’;
$recommendation = ‘CONFIRMED BEAR TREND (LOW RISK SHORT)’;
$recommendation = ‘SATURATED BEAR TREND( VERY HIGH RISK SHORT)’;

Where Would I Use MySQL Cluster?
Cluster has long been used in telecommunications network services for.
Subscriber Data Management (HLR/HSS), Service Delivery Platforms and.
Value-Added Services, and has also been deployed in certain parts of general.
Following the announcements of MySQL.
worthwhile to highlight examples of use cases for MySQL Cluster .
Payment & Financial Services Platforms.
MySQL Cluster can be deployed across a.
range of applications including payment gateways, trading systems and customer.
- These are used by merchants to.
process customer payments.
- The gateways need to integrate.
with multiple credit and debit card systems.
- Multiple payment channels have.
to be supported, i. e. ePayment, mPayment, In-store, etc.
- MySQL Cluster can be used to.
record full transaction data, including customer.
- This data is persisted for set.
time periods to enable auditing and fraud detection.
- MySQL Cluster can be deployed.
to support the trading engine , persisting the details of each trade.
- MySQL Cluster also provides the.
storage layer for the store–and-forward messaging system used by traders and.
customers to track transactions.
- MySQL Cluster can be used as a command and control system, providing.
telephony, web portal and call desk integration.
- Inbound calls are routed to customer services representatives and customer.
account details are retrieved in real-time.
- Additional support for Integrated Voice Response systems enabling.
Core database requirements of these.
· ACID compliance to support.
· Rapid scale-out to support growth in merchants,
traders, customers and payment channels.
· Very high insert and update rates.
· Low, predictable latency to support real-time.
trading and customer experience.
· 99.999% availability to guard against both.
outages and support on-line maintenance operations needed to seamlessly evolve.
services (i. e. adding nodes, upgrading schema, etc.)
· Low TCO to maximize trading margins.
Management and eCommerce.
Providing the back-end to on-line retail.
sites is an area where MySQL Cluster has a strong track record, providing the.
- Enabling a seamless experience.
as users log-in, search and browse products, and then place orders.
- Managing user accounts, s toring each new user.
session, updating customer profiles and maintaining shopping carts.
- Recording and tracking user.
behavior to integrate with merchandizing systems, enabling real-time cross-sell.
and upsell promotions.
Database requirements for eCommerce include.
compliance to support transactional integrity.
· Elastic, on-demand scale-out using.
commodity hardware to support growing user and order volumes, and holiday.
· Low, predictable latency to.
support a real time user experience.
· High availability to avoid.
downtime resulting in lost sales and compromised customer satisfaction.
· On-line schema changes to.
support the additions of new product categories or customer profiling.
Architecture s for best practices in scaling highly available,
on-line retail sites.
With a huge growth in.
gamers, and gaming platforms, MySQL Cluster can be used to support the core.
gaming persistence layer:
- MySQL Cluster manages user.
accounts, gaming entitlements and session state (life-force, weapons, scores,
etc.), along with leaderboards, all in real time.
- Manages the eCommerce and.
billing platform (for in-game purchases)
- Command and control system.
across gaming platforms, integrating multiple services with avatars and devices.
Again, the core requirements of the database include:
· Linear, on-demand scalability.
of both read and write operations to support the ramp in demand when new games.
· Low latency for a real-time.
Data and Content Management.
Advertising and Customer Relationship Management.
MySQL Cluster can be used to capture customer.
campaign responses in real time.
- Campaign responses are consolidated.
across multiple channels, including web, social media, SMS, and in-store.
- Data is replicated in batches.
to the MySQL InnoDB storage engine for analysis and reporting.
MySQL Cluster is used to capture real-time.
data feeds & metadata from environmental sensors, devices and satellites . Data is then.
replicated to analysis platforms for transformation and processing.
Database requirements include:
· The ability to support high.
volume insert and update rates, with zero data loss.
· Scaled-out on commodity hardware.
replication topologies to other database engines and across data centers.
The above examples illustrate how MySQL.
Cluster can be used across range of web-based services deployed on-premise or.
If you have workloads that have similar.
demands, it’s worth taking a look at MySQL Cluster 7.2. The new MySQL.
Cluster Evaluation Guide provides best practices in quickly provisioning proof-of-concepts.
and benchmarking MySQL Cluster with your application.
We’d love to hear more about they types of.
workloads that you think would benefit from MySQL Cluster, so please use the.

Mysql trading system


The most comprehensive set of advanced features, management tools and technical support to achieve the highest levels of MySQL scalability, security, reliability, and uptime.
Oracle MySQL Cloud Service.
Built on MySQL Enterprise Edition and powered by the Oracle Cloud, Oracle MySQL Cloud Service provides a simple, automated, integrated and enterprise ready MySQL cloud service, enabling organizations to increase business agility and reduce costs.
MySQL Cluster CGE.
MySQL Cluster enables users to meet the database challenges of next generation web, cloud, and communications services with uncompromising scalability, uptime and agility.
MySQL for OEM/ISV.
Over 2000 ISVs, OEMs, and VARs rely on MySQL as their products' embedded database to make their applications, hardware and appliances more competitive, bring them to market faster, and lower their cost of goods sold.

US Search Desktop.
Agradecemos seus comentários sobre como melhorar a Pesquisa do Yahoo. Este fórum é para você fazer sugestões de produtos e fornecer feedback atencioso. Estamos sempre tentando melhorar nossos produtos e podemos usar o feedback mais popular para fazer uma mudança positiva!
Se você precisar de assistência de qualquer tipo, visite nosso fórum de suporte à comunidade ou encontre ajuda individualizada em nosso site de ajuda. Este fórum não é monitorado por nenhum problema relacionado a suporte.
O fórum de comentários do produto do Yahoo agora exige um ID e uma senha válidos do Yahoo para participar.
Agora você precisa fazer login usando sua conta de e-mail do Yahoo para nos fornecer feedback e enviar votos e comentários para as ideias existentes. Se você não tiver um ID do Yahoo ou a senha do seu ID do Yahoo, inscreva-se para obter uma nova conta.
Se você tiver um ID e uma senha do Yahoo válidos, siga estas etapas se quiser remover suas postagens, comentários, votos e / ou perfil do fórum de comentários do produto do Yahoo.
Vote em uma ideia existente () ou publique uma nova ideia…
Idéias quentes Idéias superiores Novas ideias Categoria Status Meu feedback.
Xnxx vedios.
Trazer de volta o layout antigo com pesquisa de imagens.
sim: a única possibilidade (eu acho) enviar todas as informações para (alienvault.
Desinformação na ordem DVD.
Eu pedi DVD / Blueray "AL. A confidencial" tudo que eu consegui foi Blue ray & amp; um contato # para obter o DVD que não funcionou. Eu encomendo minha semana com Marilyn ____DVD / blue ray & amp; Eu peguei os dois - tolamente, assumi que o mesmo se aplicaria a L. A. ___ETC não. Eu não tenho uma máquina de raio azul ----- Eu não quero uma máquina de raio azul Eu não quero filmes blueray. Como obtenho minha cópia de DVD de L. A. Confidential?
yahoo, pare de bloquear email.
Passados ​​vários meses agora, o Yahoo tem bloqueado um servidor que pára nosso e-mail.
O Yahoo foi contatado pelo dono do servidor e o Yahoo alegou que ele não bloquearia o servidor, mas ainda está sendo bloqueado. CEASE & amp; DESISTIR.
Não consigo usar os idiomas ingleses no e-mail do Yahoo.
Por favor, me dê a sugestão sobre isso.
Motor de busca no Yahoo Finance.
Um conteúdo que está no Yahoo Finance não aparece nos resultados de pesquisa do Yahoo ao pesquisar por título / título da matéria.
Existe uma razão para isso, ou uma maneira de reindexar?
Procure por "turkey ******" imagens sem ser avisado de conteúdo adulto ou que o mostre.
O Yahoo está tão empenhado em atender os gostos lascivos das pessoas que nem posso procurar imagens de uma marca de "peitos de peru" sem ser avisado sobre conteúdo adulto? Apenas usando a palavra "******" em QUALQUER contexto significa que eu vou pegar seios humanos em toda a página e ter que ser avisado - e passar por etapas para evitá-lo?
Aqui está minha sugestão Yahoo:
Invente um programa de computador que reconheça palavras como 'câncer' ou 'peru' ou 'galinha' em uma frase que inclua a palavra '******' e não assuma automaticamente que a digitação "***** * "significa que estou procurando por ***********.
Descobrir uma maneira de fazer com que as pessoas que ESTÃO procurando *********** busquem ativamente por si mesmas, sem assumir que o resto de nós deve querer *********** se digitarmos uma palavra comum - ****** - que qualquer um pode ver qualquer dia em qualquer seção de carne em qualquer supermercado em todo o país. :(
O Yahoo está tão empenhado em atender os gostos lascivos das pessoas que nem posso procurar imagens de uma marca de "peitos de peru" sem ser avisado sobre conteúdo adulto? Apenas usando a palavra "******" em QUALQUER contexto significa que eu vou pegar seios humanos em toda a página e ter que ser avisado - e passar por etapas para evitá-lo?
Aqui está minha sugestão Yahoo:
Invente um programa de computador que reconheça palavras como "câncer" ou "peru" ou "galinha" em uma frase que inclua a palavra "******" e não assuma automaticamente a digitação "***** * "significa que estou procurando por mais ...
Por que, quando eu faço login no YahooGroups, todos os grupos aparecem em francês ?!
Quando entro no YahooGroups e ligo para um grupo, de repente tudo começa a aparecer em francês? O que diabos está acontecendo lá ?! Por alguma razão, o sistema está automaticamente me transferindo para o fr. groups. yahoo. Alguma ideia?
consertar o que está quebrado.
Eu não deveria ter que concordar com coisas que eu não concordo com a fim de dizer o que eu acho - eu não tive nenhum problema resolvido desde que comecei a usar o Yahoo - fui forçado a jogar meu antigo mensageiro, trocar senhas, obter novas messenger, disse para usar o meu número de telefone para alertar as pessoas que era o meu código de segurança, receber mensagens diárias sobre o bloqueio de yahoo tentativas de uso (por mim) para quem sabe por que como ele não faz e agora eu obter a nova política aparecer em cada turno - as empresas costumam pagar muito caro pela demografia que os usuários fornecem para você, sem custo, pois não sabem o que você está fazendo - está lá, mas não está bem escrito - e ninguém pode responder a menos que concordem com a política. Já é ruim o suficiente você empilhar o baralho, mas depois não fornece nenhuma opção de lidar com ele - o velho era bom o suficiente - todas essas mudanças para o pod de maré comendo mofos não corta - vou relutantemente estar ativamente olhando - estou cansado do mudanças em cada turno e mesmo aqueles que não funcionam direito, eu posso apreciar o seu negócio, mas o Ameri O homem de negócios pode vender-nos ao licitante mais alto por muito tempo - desejo-lhe boa sorte com sua nova safra de guppies - tente fazer algo realmente construtivo para aqueles a quem você serve - a cauda está abanando o cachorro novamente - isso é como um replay de Washington d c
Eu não deveria ter que concordar com coisas que eu não concordo com a fim de dizer o que eu acho - eu não tive nenhum problema resolvido desde que comecei a usar o Yahoo - fui forçado a jogar meu antigo mensageiro, trocar senhas, obter novas messenger, disse para usar o meu número de telefone para alertar as pessoas que era o meu código de segurança, receber mensagens diárias sobre o bloqueio de yahoo tentativas de uso (por mim) para quem sabe por que isso acontece e agora eu recebo a nova política em cada turno - as empresas costumam pagar muito pela demografia que os usuários fornecem para você ... mais.

Комментариев нет:

Отправить комментарий