La tecnología de Retail Rocket

El 2012 se escribió la primera línea de código de Retail Rocket. Desde entonces, los ingenieros de Retail Rocket y el equipo de data science han mantenido su pasión por cambiar el mundo del Ecommerce y hacerlo verdaderamente personalizado.

Algunos números que describen brevemente Retail Rocket:
• Más de 80 servidores (principalmente en Alemania).
• Más de 100 millones de usuarios únicos (cookies únicas) procesados por mes.
• Más de 1000 tiendas conectadas a Retail Rocket en todo el mundo.
• Más de 450000 pedidos API al minuto (de media).
• 45 años invertidos en el desarrollo.

Enfoque de data science

El objetivo de Retail Rocket es identificar las necesidades de los usuarios de la tienda online analizando su comportamiento y las bases de datos de productos. La generación de recomendaciones personalizadas en tiempo real requiere el uso de variables y algoritmos de última generación, que incluyen:

 
  • Filtrado de contenido.
  • Filtrado colaborativo.
  • Análisis predictivo basado en machine learning y modelo de Markov.
  • Estadística bayesiana.
  • Algoritmos híbridos de personalización en tiempo real.

… y muchos más.



 
Roman Zykov, Chief Data Scientist de Retail Rocket, hablando durante la conferencia anual RecSys 2016 @ MIT University (Boston)
Actividad en la comunidad de Data Science

Nuestro equipo de ingeniería son miembros activos de la comunidad de data science con distintas publicaciones y premios obtenidos en competiciones de data science, además de numerosas ponencias en reconocidos eventos del sector.

img

 

 

spark
Clúster de análisis

Para machine learning utilizamos el framework Spark basado en la plataforma Hadoop Yarn - un sistema de computación de clusters utilizando Scala, un lenguaje de programación funcional. En cuanto a los componentes nativos de Hadoop, utilizamos Apache Flume para la transferencia de datos, Mahout Machine Learning y Oozie scheduler.

El equipo de Retail Rocket almacena en el GitHub una serie de proyectos interesantes: Simple A/B-testing engine in JavaScript, Spark MultiTool Library for Scala, Hadoop cluster deploying scripts using Puppet.

 

iis8
Interfaz

Casi todo con lo que interactúa un usuario es procesado por los servidores web IIS, el código está escrito en C #, Asp.Net MVC. Bases de datos que utilizamos: Redis, MongoDB, PostgreSQL.

Cuando necesitamos ejecutar las interacciones entre componentes distribuidos, por ejemplo, para el cálculo del segmento de usuario basado en el User-Agent (perfiles de la audiencia) utilizamos Thrift. Y para construir el flujo de datos de las tiendas online con varios subsistemas utilizamos el transporte Flume, mencionado anteriormente.

git
Proceso de desarrollo

Somos defensores de una metodología continua de empresa (Delivery Methodology) para garantizar ser eficientes con nuestros clientes (actualmente trabajamos con más de 1000 tiendas).

Para lograrlo utilizamos una serie de tecnologías Git + GitLab + TeamCity con tests unitarios automatizados (más de 1200 a principios de 2017), tests de aceptación y procedimientos de revisión de código.

 

 

Utilizamos cookies propias y de terceros para realizar análisis de uso y de medición de nuestra web para mejorar nuestros servicios. Si continua navegando, consideramos que acepta su uso. Puede cambiar la configuración u obtener más información aquí.