Arquitectura Del Sistema De Comercio


Algorithmic Trading System Architecture Anteriormente en este blog he escrito sobre la arquitectura conceptual de un sistema de negociación algorítmica inteligente, así como los requisitos funcionales y no funcionales de un sistema de trading algorítmico de producción. Desde entonces he diseñado una arquitectura de sistema que creo que podría satisfacer los requisitos arquitectónicos. En este post describiré la arquitectura siguiendo las directrices de los estándares ISO / IEC / IEEE 42010 y el estándar de descripción de arquitectura de ingeniería de software. De acuerdo con esta norma, una descripción de la arquitectura debe: • Contener múltiples vistas estandarizadas de arquitectura (por ejemplo, en UML) y • Mantener la trazabilidad entre las decisiones de diseño y los requisitos arquitectónicos Definición de la arquitectura de software Todavía no hay consenso sobre lo que es una arquitectura de sistemas. En el contexto de este artículo, se define como la infraestructura dentro de la cual se pueden especificar, desplegar y ejecutar componentes de aplicación que satisfacen requisitos funcionales. Los requisitos funcionales son las funciones esperadas del sistema y sus componentes. Los requisitos no funcionales son medidas a través de las cuales se puede medir la calidad del sistema. Un sistema que satisface plenamente sus requisitos funcionales puede todavía no satisfacer las expectativas si los requisitos no funcionales se dejan insatisfechos. Para ilustrar este concepto, considere el siguiente escenario: un sistema de negociación algorítmico que acaba de adquirir / construye hace excelentes decisiones comerciales, pero es completamente inoperable con las organizaciones de gestión de riesgos y sistemas de contabilidad. Este sistema satisface sus expectativas Arquitectura Conceptual Una visión conceptual describe conceptos y mecanismos de alto nivel que existen en el sistema en el nivel más alto de granularidad. A este nivel, el sistema de comercio algorítmico sigue una arquitectura impulsada por eventos (EDA) dividida en cuatro capas, y dos aspectos arquitectónicos. Para cada capa y aspecto se utilizan arquitecturas y patrones de referencia. Los patrones arquitectónicos son estructuras probadas y genéricas para lograr requisitos específicos. Los aspectos arquitectónicos son preocupaciones transversales que abarcan múltiples componentes. Arquitectura impulsada por eventos: una arquitectura que produce, detecta, consume y reacciona ante eventos. Los eventos incluyen movimientos del mercado en tiempo real, eventos o tendencias complejas y eventos comerciales, p. Presentar una orden. Este diagrama ilustra la arquitectura conceptual del sistema de comercio algorítmico. Arquitectura de referencia Para utilizar una analogía, una arquitectura de referencia es similar a los planos para una pared portante. Esta impresión azul puede ser reutilizada para diseños de edificios múltiples, independientemente de qué edificio se está construyendo, ya que satisface un conjunto de requisitos comunes. De manera similar, una arquitectura de referencia define una plantilla que contiene estructuras genéricas y mecanismos que pueden usarse para construir una arquitectura de software concreta que satisface requisitos específicos. La arquitectura para el sistema de comercio algorítmico utiliza una arquitectura basada en el espacio (SBA) y un controlador de vista de modelo (MVC) como referencias. También se utilizan buenas prácticas, como el almacén de datos operativos (ODS), el patrón de transformación y carga de extracciones (ETL) y un almacén de datos (DW). Controlador de vista de modelo: un patrón que separa la representación de la información de la interacción del usuario con ella. Arquitectura basada en el espacio: especifica una infraestructura en la que las unidades de procesamiento ligeramente acopladas interactúan entre sí a través de una memoria asociativa compartida llamada espacio (se muestra a continuación). Vista estructural La vista estructural de una arquitectura muestra los componentes y subcomponentes del sistema de negociación algorítmica. También muestra cómo se implementan estos componentes en la infraestructura física. Los diagramas UML utilizados en esta vista incluyen diagramas de componentes y diagramas de implementación. A continuación se muestra la galería de los diagramas de despliegue del sistema de negociación algorítmica global y las unidades de procesamiento en la arquitectura de referencia SBA, así como diagramas de componentes relacionados para cada una de las capas. Tácticas arquitectónicas Según el instituto de ingeniería de software una táctica arquitectónica es un medio de satisfacer un requisito de calidad mediante la manipulación de algunos aspectos de un modelo de atributos de calidad a través de decisiones de diseño arquitectónico. Un ejemplo sencillo utilizado en la arquitectura del sistema de negociación algorítmica es la manipulación de un almacén de datos operativos (ODS) con un componente de consulta continua. Este componente analizaría continuamente las ODS para identificar y extraer eventos complejos. Las siguientes tácticas se utilizan en la arquitectura: El patrón disruptor en el evento y las colas de orden Memoria compartida para el evento y las colas de orden Lenguaje de consulta continua (CQL) en el ODS Filtrado de datos con el patrón de diseño del filtro en los datos entrantes Algoritmos de evitación de congestión en todos (AQM) y notificación de congestión explícita Recursos de computación de productos básicos con capacidad de actualización (escalable) Redundancia activa para todos los puntos de falla individuales Indexación y estructuras de persistencia optimizadas en el ODS Programar scripts regulares de copia de seguridad y limpieza de datos ODS Historial de transacciones en todas las bases de datos Checksums para todos los pedidos para detectar fallos Anotar eventos con marcas de tiempo para omitir eventos antiguos Reglas de validación de orden, por ejemplo Cantidades máximas de comercio Componentes automatizados de comerciantes utilizan una base de datos en memoria para el análisis Autenticación de dos etapas para interfaces de usuario que se conectan a los ATs Cifrado en interfaces de usuario y conexiones a los ATs Patrón de diseño de observador para MVC para gestionar vistas La lista anterior son sólo unos pocos diseño Decisiones que identifiqué durante el diseño de la arquitectura. No es una lista completa de tácticas. A medida que se está desarrollando el sistema, se deben emplear tácticas adicionales a través de múltiples niveles de granularidad para satisfacer requisitos funcionales y no funcionales. A continuación se muestran tres diagramas que describen el patrón de diseño del disruptor, el patrón de diseño del filtro y el componente de consulta continua. Vista de Comportamiento Esta vista de una arquitectura muestra cómo los componentes y las capas deben interactuar entre sí. Esto es útil cuando se crean escenarios para probar diseños de arquitectura y para entender el sistema de extremo a extremo. Esta vista consiste en diagramas de secuencia y diagramas de actividad. Los diagramas de actividad que muestran el proceso interno de los sistemas de negociación algorítmica y cómo se supone que los comerciantes interactúan con el sistema de comercio algorítmico se muestran a continuación. Tecnologías y marcos El paso final en el diseño de una arquitectura de software es identificar posibles tecnologías y marcos que podrían ser utilizados para realizar la arquitectura. Como principio general es mejor aprovechar las tecnologías existentes, siempre que satisfagan adecuadamente los requisitos tanto funcionales como no funcionales. Un marco es una arquitectura de referencia realizada, p. JBoss es un framework que realiza la arquitectura de referencia JEE. Las siguientes tecnologías y marcos son interesantes y deben ser considerados al implementar un sistema de trading algorítmico: CUDA - NVidia tiene una serie de productos que soportan el modelado de finanzas computacionales de alto rendimiento. Uno puede lograr hasta 50x mejoras de rendimiento en la ejecución de simulaciones de Monte Carlo en la GPU en lugar de la CPU. Apache River - River es un kit de herramientas usado para desarrollar sistemas distribuidos. Se ha utilizado como un marco para la construcción de aplicaciones basadas en el patrón SBA Apache Hadoop - en el caso de que el registro generalizado es un requisito, entonces el uso de Hadoop ofrece una solución interesante para el problema de los grandes datos. Hadoop se puede implementar en un entorno de clúster que admita tecnologías CUDA. AlgoTrader - una plataforma de trading algorítmica de código abierto. AlgoTrader podría potencialmente ser desplegado en el lugar de los componentes automatizados del comerciante. FIX Engine - una aplicación independiente que admite los protocolos de intercambio de información financiera (FIX) incluyendo FIX, FAST y FIXatdl. Aunque no es una tecnología o un marco, los componentes deben ser construidos con una interfaz de programación de aplicaciones (API) para mejorar la interoperabilidad del sistema y sus componentes. Conclusión La arquitectura propuesta ha sido diseñada para satisfacer requisitos muy genéricos identificados para los sistemas de negociación algorítmica. En general, los sistemas de negociación algorítmica se complican por tres factores que varían con cada implementación: Dependencias de la empresa externa y sistemas de intercambio Desafiar los requisitos no funcionales y Evolucionar restricciones arquitectónicas Por lo tanto, la arquitectura de software propuesta debe adaptarse caso por caso para Para satisfacer requisitos organizativos y normativos específicos, así como para superar las limitaciones regionales. La arquitectura del sistema de trading algorítmico debe ser visto como un punto de referencia para individuos y organizaciones que desean diseñar sus propios sistemas de trading algorítmicos. Para obtener una copia completa y las fuentes utilizadas, descargue una copia de mi informe. Gracias. TagsHay en realidad sólo 3 bloques principales en un sistema de comercio de Algo. 3. Router de pedido (por ejemplo, enrutador FIX), puede agregar comprobaciones de riesgo en el Módulo de Estrategia o en el Módulo de Enrutador de Pedidos o en ambos. Tan largo su flujo de datos es correcto, usted debe ser bueno para ir. Recuerde que está diseñando un ATS para la latencia mínima, y ​​agregar más capas o complejidad vendrá a costa de la latencia. Arquitectura mínima de ATS Y si usted agrega las campanas y los silbidos, parecería el siguiente: Si usted también está interesado en el nitty-gritty de la puesta en práctica de la arquitectura antedicha, usted debe tener las cosas siguientes en mente. Evite cerraduras / mutex. En caso de que tenga que usarlo, trate de reemplazarlos con estructuras sin cerraduras usando atomics. Hay un par de bibliotecas disponibles para estructuras de datos sin candado (por ejemplo, libcds, kit de concurrencia, etc). C-11 soporta std :: atomic. Y debe esforzarse por utilizarlos también. Evite lo que se hace en QuickFIX. Su escrito para seguridad / flexibilidad / reutilización como objeto (bloqueo) creación y destrucción se realiza para cada invocación de cualquier mensaje a enrutador. Seguramente no hay forma de escribir un código de latencia sensible. Sin asignación de memoria de tiempo de ejecución. La ruta de tiempo de ejecución debe utilizar la gestión de memoria personalizada y sin bloqueo con pool de memoria pre-asignados. Toda la inicialización se puede hacer en constructores. Acoplamiento estrecho. El modelo de subprocesos, el modelo de E / S y la gestión de memoria deben diseñarse para colaborar entre sí para lograr el mejor rendimiento general. Esto va en contra del concepto OOP de acoplamiento suelto, pero es necesario evitar el coste de tiempo de ejecución del polimorfismo dinámico. Usar plantillas. En el mismo sentido, también sugiero que mire la templatización C para lograr la flexibilidad del código. OS / optimización de hardware: Por último, debe buscar trabajar con Linux RT Kernel y Solarflare tarjeta de red con el controlador OpenOnLoad para lograr la latencia mínima. Usted puede mirar más lejos para aislar la CPU y ejecutar su programa en ese núcleo en particular. Y finalmente, la API pública que necesitaría exponer a los desarrolladores de estrategias. Me gustaría que esto fuera el conjunto mínimo que encapsularía toda la complejidad de ese intercambio / destino en particular. VirtualBool sendCxlOrd (OrderInfo) 0 virtualBut esto significa que la clase OrderInfo necesita tener TODOS los detalles requeridos por el destino / intercambio. En general, los intercambios requieren el mismo tipo de información, pero a medida que avanza y apoya más intercambios / destinos, se encontrará añadiendo más variables en esta clase. Las siguientes son las preguntas / desafíos importantes que usted necesitaría preguntarse: 1. Arquitectura multiprocesos o arquitectura Multi-Threaded. Ya sea para construir un proceso monolítico con múltiples subprocesos o para escribir varios procesos. El coste de un proceso múltiple es la latencia de paso de mensajes, mientras que el coste de un solo proceso de subprocesos múltiples es que cualquier fallo puede derribar todo el sistema. 2. Paso de mensaje: mientras que usted puede elegir de la plétora de opciones, usted es limitado por la consideración de la latencia. El IPC más rápido sería la memoria compartida, pero entonces ¿cómo haría la sincronización pasar algún tiempo con estas dos preguntas, ya que sería el bloque de construcción en el que se encuentra su arquitectura. Edit: FIX y FAST Respecto al protocolo popular / estándar, FIX es para el envío de pedidos y FAST es para datos de mercado. Dicho esto, la mayoría de los intercambios tienen su propio protocolo nativo que es más rápido que FIX, ya que FIX generalmente se implementa en la parte superior de su protocolo nativo. Pero siguen soportando FIX agrega a la velocidad de despliegue. Por otro lado, mientras FIX es adoptado por la mayoría de los intercambios, FAST no goza de una aceptación tan amplia. En todo caso, sólo habría un puñado de intercambios que lo adoptaran. La mayoría de ellos envían más de FIX (latencia baja), o utilizan su propio protocolo binario nativo. p. ej. En la India, NSE, BSE y MCX / MCXSX, todos los tres intercambios le da protocolo FIX además de protocolo nativo, pero sólo la EEB le da FAST para los datos de mercado. Y eso también está pasando de FAST a nativo con la introducción de EOBI. Usted puede extrapolar lo mismo a otros intercambios. 3.1k Vistas middot Ver Upvotes middot No es para la reproducción Como John mencionó, OMS es el punto crucial de cualquier plataforma de comercio y debe comenzar a investigar sobre él. Tendría que pasar tiempo para determinar su ciclo de vida comercial, eventos y características que desea integrar en el OMS y los que desea que su motor Algo maneje. Metcetera ofrece una OMS de código abierto, no la he utilizado personalmente, pero es una de las pocas en el mercado. La siguiente cosa que usted debe mirar está proporcionando una interfaz a los datos de fuente adentro y empuja hacia fuera. Esto es para un sistema de entrada de pedidos de cliente para lanzar los detalles de la orden y el motor de Algo a la fuente. Una gran cantidad de Sell Side OMS039s utilizan una combinación de programas propietarios escritos en Java / C usando FIX. El protocolo FIX le permite comunicarse en tiempo real entre sistemas en un formato de mensaje predefinido de amplificador simplificado establecido por la comunidad de protocolos FIX. Vaya a la página de inicio de FIX Protocol Organization gt para obtener más información al respecto. También examina el motor Open Source FIX. Una implementación de código abierto del motor FIX. A continuación viene una interfaz de datos de mercado para la fuente de información en tiempo real del mercado de seguridad, los datos que van desde alta / baja / abrir / cerrar a la mejor oferta / mejor preguntar, Volumen negociado total, último precio, último volumen, ofertas cotizaciones, Usted busca realmente depende del tipo de estrategia que desee implementar. Creo que Interactive Broker proporciona un feed de datos en tiempo real a través de FIX. La conectividad de Exchange es la siguiente donde su Algo interpreta las señales, crea un pedido y rutas a un intercambio o ECN. Desarrollarlo en la empresa podría ser difícil, ya que usted tendría que trabajar en la membresía de Exchange, certificar su plataforma y pagar una cuota de membresía regular. Una forma más barata es utilizar una API de intermediario (como IB) y enrutar el pedido a través de ellos. Los datos históricos también son esenciales, ya que es posible que desee comparar el comportamiento actual del mercado con sus valores históricos. Parámetros como propagación media, perfiles VWAP, volumen diario promedio, etc, pueden ser necesarios para influir en la toma de decisiones. Usted puede tener en la base de datos (preferido), pero si la velocidad de la esencia, a continuación, descargarlo en la caché del servidor cuando inicie su programa. Una vez que sus sistemas periféricos están configurados, puede comenzar a desarrollar su programa de algo de la manera en que desea que funcione. Esta infraestructura básica le permitiría introducir una orden de orden de origen, leer datos de mercado, reaccionar a las señales, pero generar órdenes de niños y colocarla en el libro de órdenes de cambio y datos históricos para influir en la toma de decisiones. El OMS mantiene el vínculo entre la orden de los hijos de los padres, sus estados en tiempo real y las actualizaciones de la plataforma de conectividad de algo o de intercambio. Lo que quieres implementar dentro del Algo es completamente tuyo. 1.9k Vistas middot Ver Upvotes middot No es Reproducción Martin Krmer. Científico de la computadora, codificador de la pila llena, teniendo una buena idea del aprendizaje de la máquina Mire mucho más simple que usted puede ser que imagina pues el objetivo principal es alcanzar reacciones a las señales en el orden de microsegundos y no optimizar para cualquier clase de modelo complicado. En la práctica esto significa que usted no puede permitirse cualquier cosa excepto algunas operaciones matemáticas muy básicas. Así que los principales comerciantes en este campo realmente ganar dinero por ser capaz de reaccionar un microsegundo más rápido que un competidor y no por la interpretación de los datos de ninguna manera complicada. 2.3k Vistas middot Ver Upvotes middot No para ReproducciónTrading Floor Arquitectura Piso Comercial Arquitectura Resumen Ejecutivo La mayor competencia, el mayor volumen de datos del mercado y las nuevas demandas regulatorias son algunas de las fuerzas impulsoras detrás de los cambios en la industria. Las empresas están tratando de mantener su ventaja competitiva mediante el constante cambio de sus estrategias comerciales y el aumento de la velocidad de la negociación. Una arquitectura viable tiene que incluir las últimas tecnologías tanto de la red como de los dominios de aplicación. Tiene que ser modular para proporcionar una ruta manejable para evolucionar cada componente con la interrupción mínima al sistema total. Por lo tanto, la arquitectura propuesta por este documento se basa en un marco de servicios. Examinamos servicios como mensajería de latencia ultrabaja, supervisión de latencia, multidifusión, computación, almacenamiento, virtualización de datos y aplicaciones, capacidad de negociación, movilidad comercial y cliente ligero. La solución a los complejos requisitos de la plataforma comercial de próxima generación debe ser construida con una mentalidad holística, cruzando los límites de los silos tradicionales como el negocio y la tecnología o aplicaciones y redes. Este objetivo principal de los documentos es proporcionar directrices para la construcción de una plataforma de negociación de latencia ultra baja, mientras que la optimización de la velocidad de procesamiento y de mensajes sin procesar para los datos de mercado y las órdenes de comercio FIX. Para ello, proponemos las siguientes tecnologías de reducción de latencia: Conectividad de alta velocidadInfiniBand o conectividad de 10 Gbps para el cluster de negociación Bus de mensajería de alta velocidad Aceleración de aplicaciones a través de RDMA sin re-código de aplicación Monitorización de latencia en tiempo real y reorientación de Comercio de tráfico a la ruta con una latencia mínima Tendencias y desafíos de la industria Las arquitecturas comerciales de última generación tienen que responder a las crecientes demandas de velocidad, volumen y eficiencia. Por ejemplo, se espera que el volumen de datos de mercado de opciones se duplique después de la introducción de las opciones de comercio de peniques en 2007. También hay exigencias regulatorias para la mejor ejecución, que requieren actualizaciones de precios de manipulación a tasas que se acercan a 1M msg / s. Para intercambios. También requieren visibilidad de la frescura de los datos y la prueba de que el cliente tiene la mejor ejecución posible. A corto plazo, la velocidad de la negociación y la innovación son factores clave de diferenciación. Un número creciente de transacciones se manejan mediante aplicaciones de negociación algorítmica situadas lo más cerca posible del lugar de ejecución del comercio. Un desafío con estos motores de negociación de caja negra es que se compone el aumento de volumen mediante la emisión de órdenes sólo para cancelarlos y volver a presentarlos. La causa de este comportamiento es la falta de visibilidad en qué lugar ofrece la mejor ejecución. El comerciante humano es ahora un ingeniero quotfinancial, quotquantquot (analista cuantitativo) con habilidades de programación, que puede ajustar los modelos de comercio sobre la marcha. Las empresas desarrollan nuevos instrumentos financieros como los derivados del tiempo o las operaciones de clase de activos cruzados y necesitan implementar las nuevas aplicaciones de forma rápida y escalable. A largo plazo, la diferenciación competitiva debe proceder del análisis, no sólo del conocimiento. Los comerciantes estrella de mañana asumen el riesgo, logran la verdadera percepción del cliente y constantemente superan el mercado (fuente IBM: www-935.ibm/services/us/imc/pdf/ge510-6270-trader. pdf). La resiliencia del negocio ha sido una de las principales preocupaciones de las empresas comerciales desde el 11 de septiembre de 2001. Las soluciones en esta área abarcan desde centros de datos redundantes situados en diferentes geografías y conectados a múltiples centros de negociación a soluciones de comerciante virtual que ofrecen a los comerciantes de energía la mayor parte de la funcionalidad de una planta comercial En una ubicación remota. El sector de los servicios financieros es uno de los más exigentes en términos de requisitos de TI. La industria está experimentando un cambio arquitectónico hacia la arquitectura orientada a servicios (SOA), los servicios Web y la virtualización de los recursos de TI. SOA aprovecha el aumento de la velocidad de red para permitir la vinculación dinámica y la virtualización de componentes de software. Esto permite la creación de nuevas aplicaciones sin perder la inversión en sistemas e infraestructura existentes. El concepto tiene el potencial de revolucionar la forma en que se realiza la integración, permitiendo reducciones significativas en la complejidad y costo de tal integración (gigaspaces / download / MerrilLynchGigaSpacesWP. pdf). Otra tendencia es la consolidación de los servidores en las granjas de servidores de centros de datos, mientras que los escritorios de comerciantes sólo tienen extensiones KVM y clientes ultra-delgados (por ejemplo, soluciones blade SunRay y HP). Las redes de área metropolitana de alta velocidad permiten que los datos de mercado se difundan entre diferentes ubicaciones, lo que permite la virtualización del mercado. Arquitectura de alto nivel La Figura 1 muestra la arquitectura de alto nivel de un entorno comercial. La planta ticker y los motores de negociación algorítmica se encuentran en el cluster de alto rendimiento en el centro de datos de las empresas o en el intercambio. Los comerciantes humanos se encuentran en el área de aplicaciones de usuario final. Funcionalmente hay dos componentes de aplicación en el entorno empresarial de comercio, editores y suscriptores. El bus de mensajería proporciona la ruta de comunicación entre editores y suscriptores. Existen dos tipos de tráfico específicos para un entorno comercial: Información de precios de Market DataCarries para instrumentos financieros, noticias y otra información de valor agregado como análisis. Es unidireccional y muy sensible a la latencia, normalmente entregado a través de UDP multicast. Se mide en actualizaciones / seg. Y en Mbps. Los datos de mercado fluyen de uno o varios feeds externos, procedentes de proveedores de datos de mercado como bolsas de valores, agregadores de datos y ECN. Cada proveedor tiene su propio formato de datos de mercado. Los datos son recibidos por manipuladores de alimentación, aplicaciones especializadas que normalizan y limpian los datos y luego los envían a los consumidores de datos, como motores de fijación de precios, aplicaciones de negociación algorítmica o comerciantes humanos. Las firmas de venta también envían los datos de mercado a sus clientes, las firmas de buy-side tales como fondos mutuos, hedge funds y otros gestores de activos. Algunas firmas compradoras pueden optar por recibir alimentos directos de los intercambios, lo que reduce la latencia. Figura 1 Arquitectura de comercio para una empresa de lado de compra / de venta No hay un estándar de la industria para formatos de datos de mercado. Cada intercambio tiene su formato propietario. Los proveedores de contenido financiero como Reuters y Bloomberg agregan diferentes fuentes de datos de mercado, lo normalizan y agregan noticias o análisis. Ejemplos de feeds consolidados son RDF (Feed de Datos de Reuters), RWF (Formato de Wire de Reuters) y Datos de Servicios Profesionales de Bloomberg. Para entregar datos de mercado de menor latencia, ambos proveedores han lanzado datos de mercado en tiempo real que son menos procesados ​​y tienen menos análisis: Bloomberg B-Pipe Con B-Pipe, Bloomberg desacopla su feed de datos de mercado de su plataforma de distribución porque un terminal Bloomberg No es necesario para obtener B-Pipe. Wombat y Reuters Feed Handlers han anunciado su apoyo a B-Pipe. Una empresa puede decidir recibir alimentos directamente de un intercambio para reducir la latencia. Las ganancias en velocidad de transmisión pueden estar entre 150 milisegundos a 500 milisegundos. Estos alimentos son más complejos y más caros y la empresa tiene que construir y mantener su propia planta de ticker (financetech / featured / showArticle. jhtmlarticleID60404306). Órdenes de compra Este tipo de tráfico lleva los oficios reales. Es bidireccional y muy sensible a la latencia. Se mide en mensajes / seg. Y Mbps. Las órdenes se originan de un lado de la compra o de la firma lateral de la venta y se envían a los lugares de negociación como un intercambio o ECN para la ejecución. El formato más común para el transporte de pedidos es FIX (Información Financiera eXchangefixprotocol. org/). Las aplicaciones que manejan mensajes FIX se denominan motores FIX e interactúan con sistemas de gestión de pedidos (OMS). Una optimización de FIX se llama FAST (Fix Adapted for Streaming), que utiliza un esquema de compresión para reducir la longitud del mensaje y, en efecto, reducir la latencia. FAST se orienta más a la entrega de datos de mercado y tiene el potencial de convertirse en un estándar. FAST también puede utilizarse como un esquema de compresión para formatos de datos de mercado propietarios. Para reducir la latencia, las empresas pueden optar por establecer acceso directo al mercado (DMA). DMA es el proceso automatizado de encaminamiento de una orden de valores directamente a un lugar de ejecución, evitando así la intervención de un tercero (towergroup / research / content / glossary. jsppage1ampglossaryId383). DMA requiere una conexión directa con el lugar de ejecución. El bus de mensajería es software middleware de proveedores como Tibco, 29West, Reuters RMDS o una plataforma de código abierto como AMQP. El bus de mensajería utiliza un mecanismo confiable para entregar mensajes. El transporte se puede realizar a través de TCP / IP (TibcoEMS, 29West, RMDS y AMQP) o UDP / multicast (TibcoRV, 29West y RMDS). Un concepto importante en la distribución de mensajes es el flujo quototópico, que es un subconjunto de datos de mercado definido por criterios tales como símbolo de ticker, industria o una cierta canasta de instrumentos financieros. Los suscriptores se unen a grupos de temas asignados a uno o varios subtemas para recibir sólo la información relevante. En el pasado, todos los comerciantes recibieron todos los datos del mercado. En los volúmenes actuales de tráfico, esto sería subóptimo. La red desempeña un papel crítico en el entorno comercial. Los datos de mercado se llevan a la planta de negociación donde los comerciantes humanos están ubicados a través de una red de alta velocidad del Campus o Metro Area. La alta disponibilidad y la baja latencia, así como el alto rendimiento, son las métricas más importantes. El entorno comercial de alto rendimiento tiene la mayoría de sus componentes en la granja de servidores del Centro de datos. Para minimizar la latencia, los motores de negociación algorítmica necesitan ubicarse en la proximidad de los controladores de alimentación, motores FIX y sistemas de gestión de pedidos. Un modelo de despliegue alternativo tiene los sistemas de negociación algorítmicos ubicados en un intercambio o un proveedor de servicios con conectividad rápida a múltiples intercambios. Modelos de implementación Hay dos modelos de implementación para una plataforma de negociación de alto rendimiento. Las empresas pueden optar por tener una mezcla de los dos: Centro de datos de la empresa comercial (Figura 2) Este es el modelo tradicional, donde una plataforma de comercio de pleno derecho es desarrollado y mantenido por la empresa con enlaces de comunicación a todas las sedes de negociación. La latencia varía con la velocidad de los enlaces y el número de saltos entre la empresa y los lugares. Figura 2 Modelo tradicional de implantación Co-ubicación en la plataforma de negociación (intercambios, proveedores de servicios financieros (FSP)) (Figura 3) La empresa comercial implementa su plataforma de negociación automatizada lo más cerca posible de los lugares de ejecución para minimizar la latencia. Figura 3 Arquitectura de comercio orientada a servicios de modelo de despliegue alojado Estamos proponiendo un marco orientado a servicios para construir la arquitectura comercial de próxima generación. Este enfoque proporciona un marco conceptual y una ruta de implementación basada en la modularización y la minimización de las interdependencias. Este marco proporciona a las empresas una metodología para: Evaluar su estado actual en términos de servicios Priorizar los servicios basados ​​en su valor para el negocio Evolucionar la plataforma de negociación al estado deseado utilizando un enfoque modular La arquitectura de alto rendimiento comercial se basa en los siguientes servicios, Definido por el marco de arquitectura de servicios representado en la Figura 4. Figura 4 Arquitectura de la arquitectura de servicio para el servicio de mensajería de latencia ultrabaja de servicio de alto rendimiento Este servicio es proporcionado por el bus de mensajería, que es un sistema de software que resuelve el problema de conectar muchos - Muchas aplicaciones. El sistema consta de: Un conjunto de esquemas de mensajes predefinidos Un conjunto de mensajes de comandos comunes Una infraestructura de aplicación compartida para enviar los mensajes a los destinatarios. La infraestructura compartida puede basarse en un intermediario de mensajes o en un modelo de publicación / suscripción. Los requisitos clave para el bus de mensajería de próxima generación son (fuente 29West): La menor latencia posible (por ejemplo, menos de 100 microsegundos) Estabilidad bajo carga pesada (por ejemplo, más de 1,4 millones de msg / s) Control y flexibilidad (control de velocidad y transportes configurables ) Hay esfuerzos en la industria para estandarizar el bus de mensajería. Advanced Message Queuing Protocol (AMQP) es un ejemplo de un estándar abierto defendido por J. P. Morgan Chase y apoyado por un grupo de vendedores como Cisco, Envoy Technologies, Red Hat, TWIST Process Innovations, Iona, 29West e iMatix. Dos de los objetivos principales son proporcionar un camino más simple a la interoperabilidad para las aplicaciones escritas en diferentes plataformas y modularidad para que el middleware pueda evolucionar fácilmente. En términos muy generales, un servidor AMQP es análogo a un servidor de correo electrónico con cada intercambio que actúa como un agente de transferencia de mensajes y cada cola de mensajes como un buzón. Los enlaces definen las tablas de enrutamiento en cada agente de transferencia. Los editores envían mensajes a agentes de transferencia individuales que, a continuación, encaminan los mensajes a buzones. Los consumidores toman mensajes de buzones, lo que crea un modelo potente y flexible que es simple (fuente: amqp. org/tikiwiki/tiki-index. phppageOpenApproachWhyAMQP). Latencia Servicio de monitoreo Los requisitos principales para este servicio son: Granulometría de milisegundos de mediciones Visibilidad casi en tiempo real sin agregar latencia al tráfico comercial Capacidad para diferenciar latencia de procesamiento de aplicaciones de latencia de tránsito de red Capacidad para manejar altas tasas de mensajes Proporcionar una interfaz programática para Intercambiar aplicaciones para recibir datos de latencia, permitiendo así que los motores de negociación algorítmicos se adapten a las condiciones cambiantes. Correlación de eventos de red con eventos de aplicación para propósitos de resolución de problemas. Latencia se puede definir como el intervalo de tiempo entre cuándo se envía una orden comercial y cuándo se reconoce y actúa el mismo pedido Por la parte receptora. Abordar el problema de latencia es un problema complejo, que requiere un enfoque holístico que identifica todas las fuentes de latencia y aplica diferentes tecnologías en diferentes capas del sistema. La Figura 5 representa la variedad de componentes que pueden introducir latencia en cada capa de la pila OSI. También mapea cada fuente de latencia con una posible solución y una solución de monitoreo. Este enfoque en capas puede dar a las empresas una forma más estructurada de atacar el problema de latencia, por lo que cada componente puede ser pensado como un servicio y tratado de forma coherente en toda la empresa. Maintaining an accurate measure of the dynamic state of this time interval across alternative routes and destinations can be of great assistance in tactical trading decisions. The ability to identify the exact location of delays, whether in the customers edge network, the central processing hub, or the transaction application level, significantly determines the ability of service providers to meet their trading service-level agreements (SLAs). For buy-side and sell-side forms, as well as for market-data syndicators, the quick identification and removal of bottlenecks translates directly into enhanced trade opportunities and revenue. Figure 5 Latency Management Architecture Cisco Low-Latency Monitoring Tools Traditional network monitoring tools operate with minutes or seconds granularity. Next-generation trading platforms, especially those supporting algorithmic trading, require latencies less than 5 ms and extremely low levels of packet loss. On a Gigabit LAN, a 100 ms microburst can cause 10,000 transactions to be lost or excessively delayed. Cisco offers its customers a choice of tools to measure latency in a trading environment: Bandwidth Quality Manager (BQM) (OEM from Corvil) Cisco AON-based Financial Services Latency Monitoring Solution (FSMS) Bandwidth Quality Manager Bandwidth Quality Manager (BQM) 4.0 is a next-generation network application performance management product that enables customers to monitor and provision their network for controlled levels of latency and loss performance. While BQM is not exclusively targeted at trading networks, its microsecond visibility combined with intelligent bandwidth provisioning features make it ideal for these demanding environments. Cisco BQM 4.0 implements a broad set of patented and patent-pending traffic measurement and network analysis technologies that give the user unprecedented visibility and understanding of how to optimize the network for maximum application performance. Cisco BQM is now supported on the product family of Cisco Application Deployment Engine (ADE). The Cisco ADE product family is the platform of choice for Cisco network management applications. BQM Benefits Cisco BQM micro-visibility is the ability to detect, measure, and analyze latency, jitter, and loss inducing traffic events down to microsecond levels of granularity with per packet resolution. This enables Cisco BQM to detect and determine the impact of traffic events on network latency, jitter, and loss. Critical for trading environments is that BQM can support latency, loss, and jitter measurements one-way for both TCP and UDP (multicast) traffic. This means it reports seamlessly for both trading traffic and market data feeds. BQM allows the user to specify a comprehensive set of thresholds (against microburst activity, latency, loss, jitter, utilization, etc.) on all interfaces. BQM then operates a background rolling packet capture. Whenever a threshold violation or other potential performance degradation event occurs, it triggers Cisco BQM to store the packet capture to disk for later analysis. This allows the user to examine in full detail both the application traffic that was affected by performance degradation (quotthe victimsquot) and the traffic that caused the performance degradation (quotthe culpritsquot). This can significantly reduce the time spent diagnosing and resolving network performance issues. BQM is also able to provide detailed bandwidth and quality of service (QoS) policy provisioning recommendations, which the user can directly apply to achieve desired network performance. BQM Measurements Illustrated To understand the difference between some of the more conventional measurement techniques and the visibility provided by BQM, we can look at some comparison graphs. In the first set of graphs (Figure 6 and Figure 7 ), we see the difference between the latency measured by BQMs Passive Network Quality Monitor (PNQM) and the latency measured by injecting ping packets every 1 second into the traffic stream. In Figure 6. we see the latency reported by 1-second ICMP ping packets for real network traffic (it is divided by 2 to give an estimate for the one-way delay). It shows the delay comfortably below about 5ms for almost all of the time. Figure 6 Latency Reported by 1-Second ICMP Ping Packets for Real Network Traffic In Figure 7. we see the latency reported by PNQM for the same traffic at the same time. Here we see that by measuring the one-way latency of the actual application packets, we get a radically different picture. Here the latency is seen to be hovering around 20 ms, with occasional bursts far higher. The explanation is that because ping is sending packets only every second, it is completely missing most of the application traffic latency. In fact, ping results typically only indicate round trip propagation delay rather than realistic application latency across the network. Figure 7 Latency Reported by PNQM for Real Network Traffic In the second example (Figure 8 ), we see the difference in reported link load or saturation levels between a 5-minute average view and a 5 ms microburst view (BQM can report on microbursts down to about 10-100 nanosecond accuracy). The green line shows the average utilization at 5-minute averages to be low, maybe up to 5 Mbits/s. The dark blue plot shows the 5ms microburst activity reaching between 75 Mbits/s and 100 Mbits/s, the LAN speed effectively. BQM shows this level of granularity for all applications and it also gives clear provisioning rules to enable the user to control or neutralize these microbursts. Figure 8 Difference in Reported Link Load Between a 5-Minute Average View and a 5 ms Microburst View BQM Deployment in the Trading Network Figure 9 shows a typical BQM deployment in a trading network. Figure 9 Typical BQM Deployment in a Trading Network BQM can then be used to answer these types of questions: Are any of my Gigabit LAN core links saturated for more than X milliseconds Is this causing loss Which links would most benefit from an upgrade to Etherchannel or 10 Gigabit speeds What application traffic is causing the saturation of my 1 Gigabit links Is any of the market data experiencing end-to-end loss How much additional latency does the failover data center experience Is this link sized correctly to deal with microbursts Are my traders getting low latency updates from the market data distribution layer Are they seeing any delays greater than X milliseconds Being able to answer these questions simply and effectively saves time and money in running the trading network. BQM is an essential tool for gaining visibility in market data and trading environments. It provides granular end-to-end latency measurements in complex infrastructures that experience high-volume data movement. Effectively detecting microbursts in sub-millisecond levels and receiving expert analysis on a particular event is invaluable to trading floor architects. Smart bandwidth provisioning recommendations, such as sizing and what-if analysis, provide greater agility to respond to volatile market conditions. As the explosion of algorithmic trading and increasing message rates continues, BQM, combined with its QoS tool, provides the capability of implementing QoS policies that can protect critical trading applications. Cisco Financial Services Latency Monitoring Solution Cisco and Trading Metrics have collaborated on latency monitoring solutions for FIX order flow and market data monitoring. Cisco AON technology is the foundation for a new class of network-embedded products and solutions that help merge intelligent networks with application infrastructure, based on either service-oriented or traditional architectures. Trading Metrics is a leading provider of analytics software for network infrastructure and application latency monitoring purposes (tradingmetrics/ ). The Cisco AON Financial Services Latency Monitoring Solution (FSMS) correlated two kinds of events at the point of observation: Network events correlated directly with coincident application message handling Trade order flow and matching market update events Using time stamps asserted at the point of capture in the network, real-time analysis of these correlated data streams permits precise identification of bottlenecks across the infrastructure while a trade is being executed or market data is being distributed. By monitoring and measuring latency early in the cycle, financial companies can make better decisions about which network serviceand which intermediary, market, or counterpartyto select for routing trade orders. Likewise, this knowledge allows more streamlined access to updated market data (stock quotes, economic news, etc.), which is an important basis for initiating, withdrawing from, or pursuing market opportunities. The components of the solution are: AON hardware in three form factors: AON Network Module for Cisco 2600/2800/3700/3800 routers AON Blade for the Cisco Catalyst 6500 series AON 8340 Appliance Trading Metrics MampA 2.0 software, which provides the monitoring and alerting application, displays latency graphs on a dashboard, and issues alerts when slowdowns occur (tradingmetrics/TMbrochure. pdf ). Figure 10 AON-Based FIX Latency Monitoring Cisco IP SLA Cisco IP SLA is an embedded network management tool in Cisco IOS which allows routers and switches to generate synthetic traffic streams which can be measured for latency, jitter, packet loss, and other criteria (cisco/go/ipsla ). Two key concepts are the source of the generated traffic and the target. Both of these run an IP SLA quotresponder, quot which has the responsibility to timestamp the control traffic before it is sourced and returned by the target (for a round trip measurement). Various traffic types can be sourced within IP SLA and they are aimed at different metrics and target different services and applications. The UDP jitter operation is used to measure one-way and round-trip delay and report variations. As the traffic is time stamped on both sending and target devices using the responder capability, the round trip delay is characterized as the delta between the two timestamps. A new feature was introduced in IOS 12.3(14)T, IP SLA Sub Millisecond Reporting, which allows for timestamps to be displayed with a resolution in microseconds, thus providing a level of granularity not previously available. This new feature has now made IP SLA relevant to campus networks where network latency is typically in the range of 300-800 microseconds and the ability to detect trends and spikes (brief trends) based on microsecond granularity counters is a requirement for customers engaged in time-sensitive electronic trading environments. As a result, IP SLA is now being considered by significant numbers of financial organizations as they are all faced with requirements to: Report baseline latency to their users Trend baseline latency over time Respond quickly to traffic bursts that cause changes in the reported latency Sub-millisecond reporting is necessary for these customers, since many campus and backbones are currently delivering under a second of latency across several switch hops. Electronic trading environments have generally worked to eliminate or minimize all areas of device and network latency to deliver rapid order fulfillment to the business. Reporting that network response times are quotjust under one millisecondquot is no longer sufficient the granularity of latency measurements reported across a network segment or backbone need to be closer to 300-800 micro-seconds with a degree of resolution of 100 igrave seconds. IP SLA recently added support for IP multicast test streams, which can measure market data latency. A typical network topology is shown in Figure 11 with the IP SLA shadow routers, sources, and responders. Figure 11 IP SLA Deployment Computing Services Computing services cover a wide range of technologies with the goal of eliminating memory and CPU bottlenecks created by the processing of network packets. Trading applications consume high volumes of market data and the servers have to dedicate resources to processing network traffic instead of application processing. Transport processingAt high speeds, network packet processing can consume a significant amount of server CPU cycles and memory. An established rule of thumb states that 1Gbps of network bandwidth requires 1 GHz of processor capacity (source Intel white paper on I/O acceleration intel/technology/ioacceleration/306517.pdf ). Intermediate buffer copyingIn a conventional network stack implementation, data needs to be copied by the CPU between network buffers and application buffers. This overhead is worsened by the fact that memory speeds have not kept up with increases in CPU speeds. For example, processors like the Intel Xeon are approaching 4 GHz, while RAM chips hover around 400MHz (for DDR 3200 memory) (source Intel intel/technology/ioacceleration/306517.pdf ). Context switchingEvery time an individual packet needs to be processed, the CPU performs a context switch from application context to network traffic context. This overhead could be reduced if the switch would occur only when the whole application buffer is complete. Figure 12 Sources of Overhead in Data Center Servers TCP Offload Engine (TOE)Offloads transport processor cycles to the NIC. Moves TCP/IP protocol stack buffer copies from system memory to NIC memory. Remote Direct Memory Access (RDMA)Enables a network adapter to transfer data directly from application to application without involving the operating system. Eliminates intermediate and application buffer copies (memory bandwidth consumption). Kernel bypass Direct user-level access to hardware. Dramatically reduces application context switches. Figure 13 RDMA and Kernel Bypass InfiniBand is a point-to-point (switched fabric) bidirectional serial communication link which implements RDMA, among other features. Cisco offers an InfiniBand switch, the Server Fabric Switch (SFS): cisco/application/pdf/en/us/guest/netsol/ns500/c643/cdccont0900aecd804c35cb. pdf. Figure 14 Typical SFS Deployment Trading applications benefit from the reduction in latency and latency variability, as proved by a test performed with the Cisco SFS and Wombat Feed Handlers by Stac Research: Application Virtualization Service De-coupling the application from the underlying OS and server hardware enables them to run as network services. One application can be run in parallel on multiple servers, or multiple applications can be run on the same server, as the best resource allocation dictates. This decoupling enables better load balancing and disaster recovery for business continuance strategies. The process of re-allocating computing resources to an application is dynamic. Using an application virtualization system like Data Synapses GridServer, applications can migrate, using pre-configured policies, to under-utilized servers in a supply-matches-demand process (networkworld/supp/2005/ndc1/022105virtual. htmlpage2 ). There are many business advantages for financial firms who adopt application virtualization: Faster time to market for new products and services Faster integration of firms following merger and acquisition activity Increased application availability Better workload distribution, which creates more quothead roomquot for processing spikes in trading volume Operational efficiency and control Reduction in IT complexity Currently, application virtualization is not used in the trading front-office. One use-case is risk modeling, like Monte Carlo simulations. As the technology evolves, it is conceivable that some the trading platforms will adopt it. Data Virtualization Service To effectively share resources across distributed enterprise applications, firms must be able to leverage data across multiple sources in real-time while ensuring data integrity. With solutions from data virtualization software vendors such as Gemstone or Tangosol (now Oracle), financial firms can access heterogeneous sources of data as a single system image that enables connectivity between business processes and unrestrained application access to distributed caching. The net result is that all users have instant access to these data resources across a distributed network (gridtoday/03/0210/101061.html ). This is called a data grid and is the first step in the process of creating what Gartner calls Extreme Transaction Processing (XTP) (gartner/DisplayDocumentrefgsearchampid500947 ). Technologies such as data and applications virtualization enable financial firms to perform real-time complex analytics, event-driven applications, and dynamic resource allocation. One example of data virtualization in action is a global order book application. An order book is the repository of active orders that is published by the exchange or other market makers. A global order book aggregates orders from around the world from markets that operate independently. The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state. Todays data grids are localized in data centers connected by Metro Area Networks (MAN). This is mainly because the applications themselves have limitsthey have been developed without the WAN in mind. Figure 15 GemStone GemFire Distributed Caching Before data virtualization, applications used database clustering for failover and scalability. This solution is limited by the performance of the underlying database. Failover is slower because the data is committed to disc. With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time. Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster. Multicast Service Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users. Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability. Using TCP requires a separate socket and sliding window on the server for each recipient. UDP broadcast requires a separate copy of the stream for each destination subnet. Both of these methods exhaust the resources of the servers and the network. The server side must transmit and service each of the streams individually, which requires larger and larger server farms. On the network side, the required bandwidth for the application increases in a linear fashion. For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth. IP multicast is the only way to scale market data delivery. To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps. The stream can be delivered by as few as two serversone primary and one backup for redundancy. There are two main phases of market data delivery to the end user. In the first phase, the data stream must be brought from the exchange into the brokerages network. Typically the feeds are terminated in a data center on the customer premise. The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center. The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications. The large brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc. Many of these applications listen to the feeds and then republish their own analytical and derivative information. For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization. Figure 16 Market Data Distribution Players The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous. Tibco RV operates in a publish and subscribe environment. Each financial instrument is given a subject name, such as CSCO. last. Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information. This is called subject-based forwarding or filtering. Subject-based filtering is patented by Tibco. A distinction should be made between the first and second phases of market data delivery. The delivery of market data from the exchange to the brokerage is mostly a one-to-many application. The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast. The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders. Figure 17 Market Data Architecture Design Issues Number of Groups/Channels to Use Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets. Normally these applications send many small messages as part of their information bus. Usually several messages are sent in each packet that are received by many users. Sending fewer messages in each packet increases the overhead necessary for each message. In the extreme case, sending only one message in each packet quickly reaches the point of diminishing returnsthere is more overhead sent than actual data. Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets. Consider, for example, the Nasdaq Quotation Dissemination Service (NQDS). The instruments are broken up alphabetically: This approach allows for straight forward network/application management, but does not necessarily allow for optimized bandwidth utilization for most users. A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS. Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user. In many market data applications, optimizing the data organization would be of limited value. Typically customers bring in all data into a few machines and filter the instruments. Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth. Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary. The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data. In some situations this may be sufficient. Intermittent Sources A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3.5 minutes. These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created. PIM-Bidir or PIM-SSM The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications. Both of these optimizations of the PIM protocol do not have any data-driven events in creating forwarding state. That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path. Intermittent sources are not an issue with PIM-Bidir and PIM-SSM. Null Packets In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream. The application must efficiently ignore these null data packets to ensure it does not affect performance. The sources must only send the burst of packets if they have been silent for more than 3 minutes. A good practice is to send the burst if the source is silent for more than a minute. Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems. Periodic Keepalives or Heartbeats An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the multicast groups. This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires. S, G Expiry Timer Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS. There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent. The (S, G) expiry timer is configurable. This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed. RTCP Feedback A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic. Unnecessary use of the feedback option can create excessive multicast state in the network. If the RTCP traffic is not required by the application it should be avoided. Fast Producers and Slow Consumers Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps. This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle. The solution needs to be some type of access control in the application that limits the amount of data that one host can request. QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application. Tibco Heartbeats TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years. However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency. This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers. These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions. Multicast Forwarding Options PIM Sparse Mode The standard IP multicast forwarding protocol used today for market data delivery is PIM Sparse Mode. It is supported on all Cisco routers and switches and is well understood. PIM-SM can be used in all the network components from the exchange, FSP, and brokerage. There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM. These are covered in the next sections. The main components of the PIM-SM implementation are: PIM Sparse Mode v2 Shared Tree (spt-threshold infinity) A design option in the brokerage or in the exchange.

Comments

Popular Posts