Friday 25 August 2017

Trading System Database Schema


Dipende da quale versione di Oracle vecchie versioni richiedono exp (esportazione), le versioni più recenti utilizzano expdp (pompa di dati) exp è stata sconsigliata, ma ancora funziona la maggior parte del tempo. Prima di iniziare, notare che le esportazioni pompa di dati nella directory Oracle sul lato server, che è un luogo simbolo Oracle mappato nel database di un luogo fisico. Ci può essere una directory predefinita (DATAPUMPDIR), controllare interrogando DBADIRECTORIES: e se non, creare uno Supponendo che si può collegare l'utente del sistema, o di un altro DBA, è possibile esportare qualsiasi schema in questo modo, nella directory predefinita: O specificando un directory specifica, aggiungere namegt directoryltdirectory: Con l'utilità di esportazione più grande, è possibile esportare nella directory di lavoro, e anche su una macchina client che è remoto dal server, utilizzando: assicurarsi che l'esportazione è fatto nel charset corretto. Se havent preparare il proprio ambiente, il client charset Oracle potrebbe non corrispondere il set di caratteri DB e Oracle farà conversione charset, che non può essere quello che vuoi. Youll vedere un avvertimento, in caso affermativo, allora il youll vuole ripetere l'esportazione dopo aver impostato variabile d'ambiente NLSLANG in modo che il set di caratteri client corrisponde al set di caratteri del database. Questo farà sì che Oracle per saltare la conversione charset. Esempio per American UTF8 (UNIX): Windows utilizza SET, esempio con UTF8 giapponese: Questo è il modo più portatile meno intrusivo: Edit: Questo funziona su SQL Server, e doesnt richiedono di entrare a sys. schemas per ottenere lo schema della vista. Questo è meno importante se tutto è dbo. ma se siete facendo buon uso di schemi, allora si dovrebbe tenere a mente. Ogni RDBMS ha il proprio modo poco di controllare i metadati come questo, ma in realtà è informationschema ANSI, e credo che Oracle e apparentemente SQLite sono gli unici che dont lo supportano in qualche modo. risposto 20 agosto 09 alle 12:58 Utilizzando SQLite: errore di SQL: tale tabella: INFORMATIONSCHEMA. VIEWS ndash lutz 20 agosto 09 alle 12:59 Lutz: 1, per mancanza di sostegno su SQLite. ndash Alix Axel 21 agosto 09 22:50 risposto 4 luglio 13 alle 08:26 Per Microsoft SQL Server, ho trovato questo la più utile, perché se esiste è spesso usato per la creazione di script di gestione dello schema. Nello script probabilmente hai già il CREATE VIEW dbo. MyView e quanto sopra è questo frammento più semplice per la copia e incolla. ndash Jimmy Bosse 2 dicembre 14 alle 16.53 Per le persone che controllano l'esistenza di abbandonare Visualizza utilizzare questo da SQL Server 2016 CTP3 è possibile utilizzare le nuove dichiarazioni DIE invece di grande SE involucri DROP VIEW SE ESISTE schemaname. viewname. n Trading floor Architettura Trading floor Architettura esecutivo Panoramica L'aumento della concorrenza, volume di dati di mercato più elevata, e le nuove esigenze normative sono alcune delle forze trainanti cambiamenti del settore. Le imprese stanno cercando di mantenere il proprio vantaggio competitivo, modificando continuamente le loro strategie di trading e aumentando la velocità del trading. Un'architettura valida deve includere le più recenti tecnologie di entrambi i domini di rete e delle applicazioni. Deve essere modulare per fornire un percorso gestibile di evolvere ogni componente con il minimo disturbo al sistema complessivo. Pertanto l'architettura proposta da questo documento si basa su un quadro servizi. Esaminiamo servizi come messaggistica ultra-bassa latenza, il monitoraggio della latenza, multicast, computing, storage, dati e la virtualizzazione delle applicazioni, la resilienza di trading, la mobilità di trading, e thin client. La soluzione alle complesse esigenze della piattaforma di trading di nuova generazione deve essere costruita con una mentalità olistica, attraversando i confini del silos tradizionali come business e tecnologia o delle applicazioni e il networking. Questo obiettivo principale documenti è quello di fornire le linee guida per la costruzione di una piattaforma ultra-bassa latenza commerciale, ottimizzando il throughput e frequenza dei messaggi sia per i dati di mercato e gli ordini di negoziazione FIX. Per raggiungere questo obiettivo, proponiamo le seguenti tecnologie di riduzione di latenza: alta velocità inter-connectInfiniBand o 10 Gbps connettività per l'alta velocità di accelerazione di messaggistica bus Application Cluster di trading via RDMA senza applicazione re-code in tempo reale il monitoraggio latenza e ri-direzione traffico commerciale al percorso con latenza minima architetture commerciali Industria Tendenze e sfide di nuova generazione hanno per rispondere alle crescenti esigenze in termini di velocità, il volume e l'efficienza. Ad esempio, il volume dei dati mercato delle opzioni è destinata a raddoppiare dopo l'introduzione di opzioni centesimo commercio nel 2007. Ci sono anche richieste normative per la migliore esecuzione, che richiedono la movimentazione aggiornamenti dei prezzi a tassi che si avvicinano 1M msgsec. per gli scambi. Esse richiedono inoltre la visibilità nella freschezza dei dati e la prova che il cliente ha ottenuto il miglior esecuzione possibile. A breve termine, la velocità del trading e l'innovazione sono fattori chiave di differenziazione. Un numero crescente di transazioni sono gestite da applicazioni di trading algoritmico posti il ​​più vicino possibile al luogo di esecuzione del commercio. Una sfida con questi motori di trading quotblack-boxquot è che vanno a comporre l'aumento di volume emettendo ordini soltanto per cancellare loro e ri-presentare. La causa di questo comportamento è la mancanza di visibilità in cui locale offre la migliore esecuzione. Il commerciante umano è ora un ingegnere quotfinancial, quot un quotquantquot (analista quantitativo), con capacità di programmazione, che consentono di regolare modelli di trading in tempo reale. Le imprese a sviluppare nuovi strumenti finanziari come i derivati ​​del tempo o compravendite di classe cross-attività e di cui hanno bisogno per implementare le nuove applicazioni in modo rapido e in modo scalabile. A lungo termine, differenziazione competitiva dovrebbe provenire da analisi, non solo la conoscenza. I commercianti stelle di domani si assumono il rischio, raggiungere la vera conoscenza del cliente, e costantemente battere il mercato (fonte IBM: www-935.ibmservicesusimcpdfge510-6270-trader. pdf). Affari resilienza è stata una preoccupazione principale delle imprese commerciali dopo l'11 settembre 2001. Le soluzioni di questa gamma zona da centri dati ridondanti situati in diverse aree geografiche e collegati a più sedi di negoziazione a soluzioni commerciante virtuali che offrono i commercianti di potenza la maggior parte delle funzionalità di un piano di trading in una posizione remota. Il settore dei servizi finanziari è uno dei più esigenti in termini di requisiti IT. Il settore sta vivendo un cambiamento di architettura verso l'architettura orientata ai servizi (SOA), servizi Web, e la virtualizzazione delle risorse IT. SOA sfrutta l'aumento della velocità della rete per consentire dinamica virtualizzazione vincolante e di componenti software. Questo permette la creazione di nuove applicazioni, senza perdere l'investimento in sistemi e infrastrutture esistenti. Il concetto ha il potenziale per rivoluzionare il modo di fare di integrazione, consentendo una significativa riduzione della complessità e il costo di tale integrazione (gigaspacesdownloadMerrilLynchGigaSpacesWP. pdf). Un'altra tendenza è il consolidamento di server in server farm di data center, mentre scrivanie commerciante hanno solo estensioni KVM e ultra-thin client (ad esempio SunRay e HP soluzioni blade). Ad alta velocità Metro Area Networks consentono dati di mercato da multicast tra le diverse posizioni, consentendo la virtualizzazione del piano di trading. Ad alto livello Architettura La figura 1 illustra l'architettura di alto livello di un ambiente di trading. L'impianto ticker ei motori di trading algoritmico si trovano nel cluster di trading ad alte prestazioni nelle aziende data center o al cambio. I commercianti umani si trovano nella zona di applicazioni per utenti finali. Funzionalmente ci sono due componenti di applicazione in azienda di scenario, gli editori e gli abbonati. Il bus di messaggistica fornisce il percorso di comunicazione tra editori e gli abbonati. Ci sono due tipi di traffico specifici ad un ambiente di trading: DataCarries mercato informazioni sui prezzi per gli strumenti finanziari, notizie e altre informazioni a valore aggiunto, quali analisi. Si è unidirezionale e molto sensibile latenza, di solito consegnato oltre UDP multicast. Si misura in updatessec. e in Mbps. I dati di mercato scorre da uno o più feed esterni, provenienti da fornitori di dati di mercato come borse, aggregatori di dati, e ECN. Ogni provider ha il proprio formato di dati di mercato. I dati vengono ricevuti da gestori di mangimi, applicazioni specializzate che normalizzano e pulire i dati e poi inviarlo ai consumatori di dati, come i motori di prezzo, le applicazioni di trading algoritmico, o commercianti umani. Vendita-side aziende inviano anche i dati di mercato ai loro clienti, buy-side aziende come i fondi comuni, hedge fund e altri gestori patrimoniali. Alcune imprese buy-side possono scegliere di ricevere i feed diretti dagli scambi, riducendo la latenza. Figura 1 Trading Architecture per una ditta Buy Side SideSell Non esiste uno standard di settore per i formati di dati di mercato. Ogni scambio ha il suo formato proprietario. i fornitori di contenuti finanziari come Reuters e Bloomberg aggregano diverse fonti di dati di mercato, normalizzano, e aggiungere notizie e analisi. Esempi di feed consolidati sono RDF (Reuters Data Feed), RWF (Reuters Format Wire), e Bloomberg Professional Services di dati. Per fornire dati più bassi del mercato latenza, entrambi i fornitori hanno rilasciato i dati di mercato in tempo reale i feed che sono meno elaborati e hanno meno di analisi: Bloomberg B-PipeWith B-Pipe, Bloomberg de-coppie loro feed di dati di mercato dalla loro piattaforma di distribuzione a causa di un terminale Bloomberg non è richiesto per ottenere B-Pipe. Wombat e Reuters gestori di alimentazione hanno annunciato il supporto per B-Pipe. Una società può decidere di ricevere i feed direttamente da uno scambio per ridurre la latenza. I guadagni in termini di velocità di trasmissione può essere compreso tra 150 millisecondi a 500 millisecondi. Questi feed sono più complessi e più costosi e la società deve costruire e mantenere un proprio impianto di ticker (financetechfeaturedshowArticle. jhtmlarticleID60404306). Trading ordersThis tipo di traffico porta i commerci attuali. È bidirezionale e molto latenza sensibile. Si misura in messagessec. e Mbps. Gli ordini provengono da un lato acquistare o vendere fermo laterale e vengono inviati a sedi di negoziazione come scambio o ECN per l'esecuzione. Il formato più comune per il trasporto ordine è FIX (Financial Information eXchangefixprotocol. org). Le applicazioni che gestiscono i messaggi FIX sono chiamati motori FIX e si interfacciano con i sistemi di gestione degli ordini (OMS). Un'ottimizzazione FIX è chiamato VELOCE (Fix Adattato per lo streaming), che utilizza uno schema di compressione per ridurre la lunghezza del messaggio e, in effetti, ridurre la latenza. VELOCE si rivolge più alla fornitura di dati di mercato e ha il potenziale per diventare uno standard. Veloce può anche essere usato come uno schema di compressione per i formati di dati di mercato proprietarie. Per ridurre la latenza, le imprese possono decidere di stabilire Direct Market Access (DMA). DMA è il processo automatizzato di instradamento un ordine di titoli direttamente ad una sede di esecuzione, evitando quindi l'intervento di una terza parte (towergroupresearchcontentglossary. jsppage1ampglossaryId383). DMA richiede un collegamento diretto con la sede di esecuzione. Il bus di messaggistica è un software middleware di fornitori come Tibco, 29West, Reuters RMDS, o una piattaforma open source come AMQP. Il bus di messaggistica utilizza un meccanismo affidabile per recapitare i messaggi. Il trasporto può essere effettuato oltre TCPIP (TibcoEMS, 29West, RMDS, e AMQP) o UDPmulticast (TibcoRV, 29West, e RMDS). Un concetto importante nella distribuzione dei messaggi è il flusso quottopic, quot, che è un sottoinsieme di dati di mercato definiti da criteri come simbolo ticker, l'industria, o un certo paniere di strumenti finanziari. Gli abbonati si uniscono gruppi di argomenti mappati a uno o più sotto-argomenti al fine di ricevere solo le informazioni rilevanti. In passato, tutti gli operatori hanno ricevuto tutti i dati di mercato. Alle attuali volumi di traffico, questo sarebbe sub-ottimale. La rete svolge un ruolo critico per l'ambiente di trading. i dati di mercato è portato al piano di trading in cui si trovano i commercianti umani tramite un Campus o rete ad alta velocità Metro Area. Elevata disponibilità e bassa latenza, così come alta produttività, sono le metriche più importanti. L'ambiente di trading ad alte prestazioni ha la maggior parte dei suoi componenti nella server farm Data Center. Per ridurre al minimo la latenza, i motori di trading algoritmico devono essere collocati in prossimità dei gestori di alimentazione, FISSARE motori e sistemi di gestione degli ordini. Un modello di distribuzione alternativo ha i sistemi di trading algoritmico situati a uno scambio o un fornitore di servizi di connettività veloce a più scambi. I modelli di distribuzione Ci sono due modelli di distribuzione per una piattaforma di trading ad alte prestazioni. Le imprese possono scegliere di avere un mix dei due: Data Center della ditta di commercio (Figura 2) Questo è il modello tradizionale, dove una vera e propria piattaforma di trading è sviluppato e mantenuto dalla società con collegamenti di comunicazione a tutte le sedi di negoziazione. La latenza varia con la velocità dei collegamenti e il numero di salti tra l'azienda e le sedi. Figura 2 tradizionale distribuzione modello di co-location presso la sede di negoziazione (borse, fornitori di servizi finanziari (FSP)) (Figura 3) La ditta di commercio dispiega la sua piattaforma di trading automatizzato il più vicino possibile alle sedi di esecuzione per ridurre al minimo la latenza. Figura 3 Hosted distribuzione modello di servizi-Oriented Architecture Trading stiamo proponendo un quadro orientata ai servizi per la costruzione dell'architettura commerciale di prossima generazione. Questo approccio fornisce un quadro concettuale e un percorso di implementazione basata su modularizzazione e la minimizzazione delle interdipendenze. Questo quadro offre alle imprese con una metodologia per: valutare il loro stato attuale in termini di servizi priorità ai servizi in base al loro valore al business evolvere la piattaforma di trading per lo stato desiderato utilizzando un approccio modulare L'architettura di trading ad alte prestazioni si basa sulle seguenti servizi, come definito dal quadro servizi di architettura rappresentata nella Figura 4. Figura 4 Architettura del servizio quadro per High performance Trading Ultra-Low Latency Messaging service Questo servizio è fornito dal bus di messaggistica, che è un sistema software che risolve il problema di collegare molti-a - molte applicazioni. Il sistema è composto da: Un insieme di messaggio predefinito schemi Una serie di messaggi di comando comuni un'infrastruttura applicazione condivisa per l'invio dei messaggi ai destinatari. L'infrastruttura condivisa può essere basata su un broker di messaggio o su un modello publishsubscribe. I requisiti fondamentali per il bus di messaggistica di nuova generazione sono (fonte 29West): (es. Più di 1,4 milioni di msgsec) Tariffa latenza possibile (ad esempio, meno di 100 microsecondi) Stabilità sotto carico pesante controllo e la flessibilità (controllo della frequenza e trasporti configurabili) Ci sono gli sforzi del settore per standardizzare il bus di messaggistica. Avanzate Message Queueing Protocol (AMQP) è un esempio di uno standard aperto sostenuto da J. P. Morgan Chase e supportato da un gruppo di fornitori come Cisco, Inviato Technologies, Red Hat, TWIST Process Innovations, Iona, 29West, e iMatix. Due dei principali obiettivi sono quelli di fornire un percorso più semplice per l'interoperabilità per le applicazioni scritte su diverse piattaforme e modularità in modo che il middleware può essere facilmente evoluto. In termini molto generali, un server AMQP è analogo a un server di posta elettronica con ogni scambio che agisce come un agente di trasferimento messaggi e ogni coda di messaggi come una cassetta postale. Le associazioni definiscono le tabelle di routing a ogni agente di trasferimento. Gli editori inviare messaggi agli agenti di trasferimento individuali, che quindi instradare i messaggi nelle cassette postali. I consumatori prendono i messaggi dalle cassette postali, che crea un modello potente e flessibile che è semplice (fonte: amqp. orgtikiwikitiki-index. phppageOpenApproachWhyAMQP). Latenza del Servizio Monitoraggio I requisiti principali per questo servizio sono: Sub-millisecondo granularità di misure Near-tempo reale una visibilità senza l'aggiunta di latenza alla capacità di traffico commerciale di differenziare la latenza elaborazione delle applicazioni dalla rete di latenza di transito Capacità di gestire elevati tassi di messaggi forniscono un'interfaccia di programmazione per applicazioni di trading per ricevere i dati di latenza, consentendo in tal modo i motori di trading algoritmico per adattarsi alle mutevoli condizioni correlare gli eventi di rete con gli eventi di applicazione per la risoluzione dei problemi di latenza può essere definito come l'intervallo di tempo tra quando un ordine di commercio viene inviato e quando lo stesso ordine è riconosciuto ed ha agito su dalla parte ricevente. Rivolgendosi il problema di latenza è un problema complesso, che richiede un approccio olistico che identifica tutte le fonti di latenza e applica tecnologie differenti a diversi livelli del sistema. La figura 5 illustra la varietà di componenti che possono introdurre latenza ad ogni livello della pila OSI. Si associa inoltre ogni fonte di latenza con una possibile soluzione ed una soluzione di monitoraggio. Questo approccio stratificato può dare alle imprese un modo più strutturato di attaccare il problema di latenza, per cui ogni componente può essere pensato come un servizio e trattata uniforme in tutta l'azienda. Il mantenimento di una misura accurata dello stato dinamico di questo intervallo di tempo attraverso percorsi e destinazioni alternative può essere di grande aiuto nelle decisioni di trading tattiche. La capacità di identificare la posizione esatta di ritardi, sia nella rete di clienti bordo, il mozzo centrale di elaborazione, oppure il livello di applicazione delle transazioni, determina in modo significativo la capacità dei fornitori di servizi per soddisfare le loro contratti di servizio di negoziazione (SLA). Per buy-side e sell-side forme, così come per syndicators mercato-dati, la rapida identificazione e la rimozione dei colli di bottiglia si traduce direttamente in opportunità commerciali avanzate e delle entrate. Figura 5 a bassa latenza strumenti di monitoraggio strumenti di monitoraggio della rete tradizionale latenza Management Architecture di Cisco operano con minuti o secondi granularità. piattaforme di trading di nuova generazione, in particolare quelli che sostengono il trading algoritmico, richiedono tempi di latenza a meno di 5 ms e livelli estremamente bassi di perdita di pacchetti. Su una LAN Gigabit, un microburst 100 ms può causare 10.000 transazioni di tale perdita o eccessivamente ritardata. Cisco offre ai propri clienti una vasta scelta di strumenti per misurare la latenza in un ambiente di trading: Bandwidth Quality Manager (BQM) (OEM da Corvil) Cisco AON a base di servizi finanziari Latency Monitoring Solution (SGSA) Bandwidth Quality Manager Bandwidth Quality Manager (BQM) 4.0 è un prodotto di gestione delle prestazioni di prossima generazione di applicazioni di rete che consente ai clienti di monitorare e disposizione la loro rete per i livelli controllati di prestazioni latenza e perdita. Mentre BQM non è mirato esclusivamente a reti di scambio, la sua visibilità microsecondo combinato con larghezza di banda intelligente provisioning caratteristiche lo rendono ideale per questi ambienti esigenti. Cisco BQM 4.0 implementa una vasta gamma di tecnologie di misura e di analisi di rete brevettate e in attesa di brevetto di traffico che danno all'utente la visibilità e la comprensione di come ottimizzare la rete per la massima applicazione senza precedenti. Cisco BQM è ora supportato sulla famiglia di prodotti Cisco Application Deployment Engine (ADE). La famiglia di prodotti Cisco ADE è la piattaforma ideale per applicazioni di gestione di rete Cisco. BQM Vantaggi Cisco BQM micro-visibilità è la capacità di rilevare, misurare e analizzare la latenza, jitter e perdita di indurre eventi di traffico a livelli di granularità microsecondi per pacchetto con risoluzione. In questo modo Cisco BQM di rilevare e determinare l'impatto di eventi di traffico sulla latenza di rete, jitter e perdita. Critico per gli ambienti di trading è che BQM in grado di supportare le misure di latenza, la perdita, e jitter di sola andata sia per il traffico UDP (multicast) TCP e. Ciò significa che riporta senza soluzione di continuità sia per il traffico trading e dati di mercato feed. BQM permette all'utente di specificare una serie completa di soglie (contro l'attività microburst, la latenza, la perdita, jitter, utilizzo, ecc) su tutte le interfacce. BQM poi gestisce un fondo di rotolamento cattura dei pacchetti. Ogni volta che si verifica una violazione di soglia o di altro evento potenziale degrado delle prestazioni, si innesca Cisco BQM per memorizzare la cattura dei pacchetti su disco per un'analisi successiva. Questo permette all'utente di esaminare nel traffico delle applicazioni che è stata influenzata da una riduzione delle prestazioni (quotthe victimsquot) e il traffico che ha causato il degrado delle prestazioni (quotthe culpritsquot) tutti i dettagli entrambi. Questo può ridurre significativamente il tempo trascorso diagnosi e la risoluzione dei problemi di prestazioni di rete. BQM è anche in grado di fornire la larghezza di banda dettagliata e la qualità del servizio (QoS) raccomandazioni politiche di provisioning, che l'utente può rivolgersi direttamente per ottenere prestazioni di rete desiderata. Misure BQM illustrati Per capire la differenza tra alcune delle tecniche di misurazione più convenzionali e la visibilità fornite da BQM, possiamo guardare alcuni grafici di confronto. Nella prima serie di grafici (Figura 6 e Figura 7), vediamo la differenza tra la latenza misurata da BQMs Passive Network Quality Monitor (PNQM) e la latenza misurata iniettando pacchetti ping ogni 1 secondo nel flusso di traffico. Nella Figura 6. vediamo la latenza riportato da 1 secondo pacchetti di ping ICMP per il traffico di rete reale (che è diviso per 2 per dare una stima per il ritardo di sola andata). Essa mostra il ritardo comodamente sotto di circa 5 ms per quasi tutto il tempo. Figura 6 Latenza Riportato da 1 secondo ICMP Ping Sacchi per la reale del traffico di rete in Figura 7. vediamo la latenza riportato dal PNQM per lo stesso traffico nello stesso momento. Qui vediamo che misurando la unidirezionale latenza dei pacchetti applicativi reali, otteniamo un quadro radicalmente diverso. Qui la latenza è visto come si aggirano intorno a 20 ms, con raffiche occasionali di gran lunga superiori. La spiegazione è che, poiché ping invia pacchetti solo ogni secondo, manca completamente la maggior parte del traffico di latenza applicazione. Infatti, i risultati di ping indicano in genere solo andata e ritorno ritardo di propagazione piuttosto che la latenza delle applicazioni realistica attraverso la rete. Figura 7 latenza Segnalato da PNQM per reale del traffico di rete Nel secondo esempio (Figura 8), vediamo la differenza nei livelli di carico di collegamento o di saturazione segnalati tra una visione media 5 minuti e un 5 ms Microburst vista (BQM può riferire microbursts giù a circa 10-100 accuratezza nanosecondi). La linea verde mostra l'utilizzo medio in media di 5 minuti per essere bassa, forse fino a 5 Mbitss. La trama blu scuro indica il 5ms attività microburst raggiungere tra il 75 e il 100 Mbitss Mbitss, la velocità LAN in modo efficace. BQM mostra questo livello di granularità per tutte le applicazioni e dà anche regole di finanziamento chiare per consentire all'utente di controllare o neutralizzare questi microbursts. Figura 8 Differenza di carico link segnalati tra 5 minuti a Media View e un 5 ms Microburst Vedi BQM distribuzione del Trading rete Figura 9 mostra una tipica distribuzione BQM in una rete commerciale. Figura 9 tipica BQM distribuzione in un Trading Network BQM può quindi essere utilizzato per rispondere a questi tipi di domande: Sono uno dei miei link nucleo Gigabit LAN saturi per più di millisecondi X è questa perdita causando che collega sarebbe massimo beneficio da un aggiornamento a Etherchannel o 10 velocità Gigabit Che il traffico delle applicazioni sta causando la saturazione dei miei 1 collegamenti Gigabit è uno qualsiasi dei dati di mercato verifica la perdita end-to-end Quanto latenza addizionale fa l'esperienza dei dati di failover center è questo link dimensionato correttamente a che fare con microbursts i miei commercianti ottenere aggiornamenti a bassa latenza dal livello di distribuzione dei dati di mercato sono essi vedendo eventuali ritardi maggiori di X millisecondi Essere in grado di rispondere a queste domande in modo semplice e consente di risparmiare tempo e denaro in modo efficace nella gestione della rete commerciale. BQM è uno strumento essenziale per ottenere visibilità nei dati di mercato e ambienti commerciali. Esso fornisce misurazioni di latenza end-to-end granulari in infrastrutture complesse che l'esperienza di spostamento dei dati ad alto volume. Effettivamente la rilevazione microbursts a livelli sub-millisecondi e la ricezione di analisi di esperti su un particolare evento è prezioso per architetti piano di trading. Smart provisioning di larghezza di banda raccomandazioni, come ad esempio il dimensionamento e analisi what-if, fornire una maggiore agilità per rispondere alle condizioni di mercato volatile. Come l'esplosione di trading algoritmico e prezzi crescenti di messaggi continua, BQM, combinata con il suo strumento di QoS, offre la possibilità di attuare politiche di QoS in grado di proteggere le applicazioni commerciali critiche. Cisco Financial Services latenza di monitoraggio soluzione Cisco e Trading metriche hanno collaborato su soluzioni di monitoraggio latenza per il flusso di ordine FIX e il monitoraggio dei dati di mercato. La tecnologia Cisco AON è la base per una nuova classe di prodotti di rete-embedded e soluzioni che aiutano fondersi reti intelligenti con infrastruttura applicativa, basata sia su architetture orientate ai servizi o tradizionali. Trading Metrics è un fornitore leader di software di analisi per le infrastrutture di rete e le finalità di monitoraggio latenza delle applicazioni (tradingmetrics). La soluzione Cisco AON Financial Services latenza di monitoraggio (SGSA) correlata due tipi di eventi presso il punto di osservazione: gli eventi di rete correlati direttamente con il messaggio di applicazione coincidente gestire il flusso di ordine commerciale e corrispondenti eventi di aggiornamento di mercato utilizzando data e ora affermati nel punto di cattura nel di rete, analisi in tempo reale di questi flussi di dati correlati consente una precisa identificazione dei colli di bottiglia in tutta l'infrastruttura, mentre un commercio è in esecuzione o dati di mercato è distribuito. Monitorando e misurare la latenza nelle prime fasi del ciclo, le società finanziarie possono prendere decisioni migliori su quali serviceand quale intermediario, mercato, o counterpartyto selezionare per l'instradamento degli ordini commerciali della rete. Allo stesso modo, questa conoscenza permette l'accesso più snello ai dati di mercato aggiornati (quotazioni di borsa, notizie economiche, etc.), che è una base importante per l'avvio, il ritiro da, o di perseguire opportunità di mercato. I componenti della soluzione sono: hardware AON in tre formati: AON modulo di rete per Cisco 2600280037003800 router AON Lama per il software Cisco Catalyst 6500 Series AON 8340 Appliance Trading Metrics mampas 2.0, che fornisce il monitoraggio e l'applicazione di allarme, display grafici latenza su un cruscotto, ed emette un avviso quando si verificano rallentamenti (tradingmetricsTMbrochure. pdf). Figura 10 AON-Based FIX Latenza di monitoraggio Cisco IP SLA Cisco IP SLA è uno strumento di gestione di rete integrato in Cisco IOS che permette ai router e switch per generare flussi di traffico sintetici che possono essere misurati per la latenza, jitter, perdita di pacchetti, e altri criteri (ciscogoipsla ). Due concetti chiave sono la fonte del traffico generato e il bersaglio. Entrambi questi eseguire un quotresponder IP SLA, quot, che ha la responsabilità di timestamp del traffico di controllo prima di essere di provenienza e restituito dal target (per una misura andata e ritorno). Vari tipi di traffico possono essere di provenienza all'interno di IP SLA e si sono rivolti a diverse metriche e obiettivi diversi servizi e applicazioni. L'operazione di jitter UDP viene utilizzato per misurare a senso unico e il ritardo di andata e ritorno e riferire variazioni. Poiché il traffico è ora impresso su entrambi i dispositivi di invio e di destinazione utilizzando la capacità di risponditore, il round trip delay è caratterizzato come il delta tra i due timestamp. Una nuova funzionalità è stata introdotta in IOS 12.3 (14) T, IP SLA sub millisecondo Reporting, che permette di timestamp da visualizzare con una risoluzione in microsecondi, fornendo così un livello di granularità non disponibili in precedenza. Questa nuova funzione ha ora reso IP SLA rilevante per reti di campus in cui la latenza di rete è di solito nel range di 300-800 microsecondi e la capacità di individuare le tendenze e picchi (brevi tendenze) basati sui contatori granularità microsecondo è un requisito per i clienti impegnati nel tempo ambienti di trading elettronico sensitive. Di conseguenza, IP SLA viene ora considerato da un numero significativo di organizzazioni finanziarie in quanto sono tutti di fronte a requisiti di: relazione di riferimento di latenza ai propri utenti Trend latenza di base nel tempo di rispondere rapidamente alle raffiche di traffico che provocano cambiamenti nella latenza segnalati Sub - segnalazione millisecondo è necessario per questi clienti, dal momento che molti campus e dorsali sono attualmente consegnando meno di un secondo di latenza tra diverse luppolo switch. ambienti di commercio elettronico sono generalmente lavorato per eliminare o ridurre al minimo tutte le aree del dispositivo e la latenza di rete per fornire una rapida evasione degli ordini per l'azienda. Segnalazione che la risposta della rete gli orari sono quotjust sotto un unico millisecondquot non è più sufficiente la granularità delle misure di latenza segnalati attraverso un segmento di rete o di backbone ha bisogno di essere più vicini ai 300-800 micro-secondi con un grado di risoluzione di 100 igrave secondi. IP SLA ha recentemente aggiunto il supporto per i flussi di prova multicast IP, in grado di misurare la latenza dei dati di mercato. Una topologia di rete tipica è mostrato in Figura 11 con l'IP SLA router ombra, fonti, e responder. Figura 11 IP SLA di distribuzione di Informatica Servizi Servizi di Informatica coprono una vasta gamma di tecnologie, con l'obiettivo di eliminare i colli di bottiglia della memoria e della CPU creati dal trattamento dei pacchetti di rete. applicazioni di trading consumano grandi volumi di dati di mercato e gli assistenti devono dedicare risorse per il traffico di rete di elaborazione, invece di elaborazione delle applicazioni. Trasporti processingAt alte velocità, di elaborazione dei pacchetti di rete possono consumare una notevole quantità di cicli di CPU del server e la memoria. Una regola stabilita empirica afferma che 1 Gbps di larghezza di banda di rete richiede 1 GHz di capacità del processore (Intel fonte carta bianca su IO accelerazione inteltechnologyioacceleration306517.pdf). tampone intermedia copyingIn un'implementazione stack di rete convenzionale, i dati devono essere copiati dalla CPU tra i buffer di rete e buffer di applicazione. Questo overhead è aggravato dal fatto che le velocità di memoria non hanno tenuto con gli aumenti nella velocità della CPU. Ad esempio, i processori come Intel Xeon si avvicinano a 4 GHz, mentre il chip di RAM si aggirano intorno ai 400 MHz (DDR 3200 di memoria) (fonte Intel inteltechnologyioacceleration306517.pdf). Contesto tempo switchingEvery un pacchetto individuo ha bisogno di essere trattati, la CPU esegue un cambio di contesto dal contesto di un'applicazione di rete contesto traffico. Questo overhead potrebbe essere ridotto se l'interruttore si verifica solo quando il buffer applicazione intera è completa. Figura 12 Fonti di Overhead in Data Center Server TCP Offload Engine (TOE) alleggerisce cicli del processore di trasporto per il NIC. Sposta protocollo TCPIP copie del buffer di stack dalla memoria di sistema alla memoria NIC. Remote Direct Memory Access (RDMA) Consente una scheda di rete per trasferire i dati direttamente da un'applicazione all'altra senza coinvolgere il sistema operativo. Elimina le copie del buffer intermedi e di applicazione (di memoria di consumo di larghezza di banda). Kernel bypassare l'accesso a livello di utente diretto all'hardware. Riduce drasticamente cambi di contesto di applicazione. Figura 13 RDMA e kernel bypass InfiniBand è un point-to-point (tessuto acceso) bidirezionale collegamento di comunicazione seriale che implementa RDMA, tra le altre caratteristiche. Cisco offre uno switch InfiniBand, Switch Fabric Server (SFS): ciscoapplicationpdfenusguestnetsolns500c643cdccont0900aecd804c35cb. pdf. Figure 14 Typical SFS Deployment Trading applications benefit from the reduction in latency and latency variability, as proved by a test performed with the Cisco SFS and Wombat Feed Handlers by Stac Research: Application Virtualization Service De-coupling the application from the underlying OS and server hardware enables them to run as network services. One application can be run in parallel on multiple servers, or multiple applications can be run on the same server, as the best resource allocation dictates. This decoupling enables better load balancing and disaster recovery for business continuance strategies. The process of re-allocating computing resources to an application is dynamic. Using an application virtualization system like Data Synapses GridServer, applications can migrate, using pre-configured policies, to under-utilized servers in a supply-matches-demand process (wwwworkworldsupp2005ndc1022105virtual. htmlpage2 ). There are many business advantages for financial firms who adopt application virtualization: Faster time to market for new products and services Faster integration of firms following merger and acquisition activity Increased application availability Better workload distribution, which creates more quothead roomquot for processing spikes in trading volume Operational efficiency and control Reduction in IT complexity Currently, application virtualization is not used in the trading front-office. One use-case is risk modeling, like Monte Carlo simulations. As the technology evolves, it is conceivable that some the trading platforms will adopt it. Data Virtualization Service To effectively share resources across distributed enterprise applications, firms must be able to leverage data across multiple sources in real-time while ensuring data integrity. With solutions from data virtualization software vendors such as Gemstone or Tangosol (now Oracle), financial firms can access heterogeneous sources of data as a single system image that enables connectivity between business processes and unrestrained application access to distributed caching. The net result is that all users have instant access to these data resources across a distributed network (gridtoday030210101061.html ). This is called a data grid and is the first step in the process of creating what Gartner calls Extreme Transaction Processing (XTP) (gartnerDisplayDocumentrefgsearchampid500947 ). Technologies such as data and applications virtualization enable financial firms to perform real-time complex analytics, event-driven applications, and dynamic resource allocation. One example of data virtualization in action is a global order book application. An order book is the repository of active orders that is published by the exchange or other market makers. A global order book aggregates orders from around the world from markets that operate independently. The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state. Todays data grids are localized in data centers connected by Metro Area Networks (MAN). This is mainly because the applications themselves have limitsthey have been developed without the WAN in mind. Figure 15 GemStone GemFire Distributed Caching Before data virtualization, applications used database clustering for failover and scalability. This solution is limited by the performance of the underlying database. Failover is slower because the data is committed to disc. With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time. Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster. Multicast Service Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users. Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability. Using TCP requires a separate socket and sliding window on the server for each recipient. UDP broadcast requires a separate copy of the stream for each destination subnet. Both of these methods exhaust the resources of the servers and the network. The server side must transmit and service each of the streams individually, which requires larger and larger server farms. On the network side, the required bandwidth for the application increases in a linear fashion. For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth. IP multicast is the only way to scale market data delivery. To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps. The stream can be delivered by as few as two serversone primary and one backup for redundancy. There are two main phases of market data delivery to the end user. In the first phase, the data stream must be brought from the exchange into the brokerages network. Typically the feeds are terminated in a data center on the customer premise. The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center. The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications. The large brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc. Many of these applications listen to the feeds and then republish their own analytical and derivative information. For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization. Figure 16 Market Data Distribution Players The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous. Tibco RV operates in a publish and subscribe environment. Each financial instrument is given a subject name, such as CSCO. last. Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information. This is called subject-based forwarding or filtering. Subject-based filtering is patented by Tibco. A distinction should be made between the first and second phases of market data delivery. The delivery of market data from the exchange to the brokerage is mostly a one-to-many application. The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast. The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders. Figure 17 Market Data Architecture Design Issues Number of GroupsChannels to Use Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets. Normally these applications send many small messages as part of their information bus. Usually several messages are sent in each packet that are received by many users. Sending fewer messages in each packet increases the overhead necessary for each message. In the extreme case, sending only one message in each packet quickly reaches the point of diminishing returnsthere is more overhead sent than actual data. Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets. Consider, for example, the Nasdaq Quotation Dissemination Service (NQDS). The instruments are broken up alphabetically: This approach allows for straight forward networkapplication management, but does not necessarily allow for optimized bandwidth utilization for most users. A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS. Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user. In many market data applications, optimizing the data organization would be of limited value. Typically customers bring in all data into a few machines and filter the instruments. Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth. Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary. The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data. In some situations this may be sufficient. Intermittent Sources A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3.5 minutes. These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created. PIM-Bidir or PIM-SSM The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications. Both of these optimizations of the PIM protocol do not have any data-driven events in creating forwarding state. That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path. Intermittent sources are not an issue with PIM-Bidir and PIM-SSM. Null Packets In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream. The application must efficiently ignore these null data packets to ensure it does not affect performance. The sources must only send the burst of packets if they have been silent for more than 3 minutes. A good practice is to send the burst if the source is silent for more than a minute. Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems. Periodic Keepalives or Heartbeats An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the multicast groups. This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires. S, G Expiry Timer Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS. There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent. The (S, G) expiry timer is configurable. This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed. RTCP Feedback A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic. Unnecessary use of the feedback option can create excessive multicast state in the network. If the RTCP traffic is not required by the application it should be avoided. Fast Producers and Slow Consumers Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps. This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle. The solution needs to be some type of access control in the application that limits the amount of data that one host can request. QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application. Tibco Heartbeats TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years. However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency. This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers. These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions. Multicast Forwarding Options PIM Sparse Mode The standard IP multicast forwarding protocol used today for market data delivery is PIM Sparse Mode. It is supported on all Cisco routers and switches and is well understood. PIM-SM can be used in all the network components from the exchange, FSP, and brokerage. There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM. These are covered in the next sections. The main components of the PIM-SM implementation are: PIM Sparse Mode v2 Shared Tree (spt-threshold infinity) A design option in the brokerage or in the exchange.

No comments:

Post a Comment