Les nouveautés App Engine


Depuis 2009 App Engine met les serveurs de Google à la disposition de ses utilisateurs, afin d'y héberger leurs sites web. Cette solution permet de libérer les développeurs des problématiques de déploiement et de scalabilité. Ces dernières sont gérées entièrement par Google, la mise à l’échelle se faisant par la création automatique de nouvelles instances. Le modèle, qui permet aux usagers de la plateforme de payer proportionnellement aux capacités utilisées dans l’infrastructure, a déjà séduit beaucoup d’entreprises. Mais le service met surtout à disposition une plateforme de développement. Quatre langages d'exécution sont disponibles (Java, Python, Go, PHP), et de nombreux services sont accessibles  : inutile par exemple de maintenir son propre serveur mail ou de base de données, App Engine fournit ces services et bien d'autres. 

Lire la suite...

Storm - Ajouter du temps réel à votre BigData


Partie 1 - Introduction aux topologies, mécanismes et API

Par principe les traitements par batchs sont trop lents et la vision qu’ils nous donnent de nos données est dépassée de la réalité.

Storm est un système de calculs temps réel distribué et tolérant aux pannes. Développé à l’origine par la société BackType, le projet est devenu open-source après l’acquisition de la société par Twitter. Il est disponible sous licence Eclipse Public License 1.0. De plus, Storm est entré depuis quelques mois dans le processus d’incubation de la fondation Apache.

L’objectif de ce premier billet est de vous introduire les différents concepts et mécanismes mis en œuvres dans Storm.

Lire la suite...

HawtIO, écrire un plugin


Après avoir découvert dans un premier article les fonctionnalités de HawtIO, nous allons à présent voir comment développer son propre plugin.

Lire la suite...

HawtIO, la console web polyvalente


HawtIO est développé chez RedHat par l'équipe qui a produit ActiveMQ, Camel, ServiceMix, Karaf, etc.
Ce projet est probablement né de la volonté d'avoir une console web commune pour administrer et monitorer tous ces produits. Mais finalement HawtIO va plus loin que ça et permet de monitorer n'importe quelle type d'application ou de serveur.

Lire la suite...

Hadoop, part 3 : graph processing with Giraph


For the last part of this Hadoop series, I will introduce you the way to process graphs with Hadoop, through Apache Giraph.

Lire la suite...

Hadoop, part 2 : the link between Hadoop and BIRT


In this second blog post concerning Hadoop, we are going to focus on the link between Hadoop and BIRT, the Eclipse-based reporting system. We will first present Hive, a component of Hadoop's ecosystem, then we will see how it can be connected to BIRT, and we will finish with an example that will illustrate more concretely how things work. If you missed the first episode, which is an introduction to Hadoop, its file system, and MapReduce, you can follow this link, to read the first part of this Hadoop blog post series.

Lire la suite...

Hadoop, première partie : Le système de fichier et le MapReduce au service des gros volumes de données


Nous allons parler dans ce billet d'Hadoop, le framework Java d'Apache en vogue pour le traitement de données très volumineuses (pouvant aller jusqu'à plusieurs pétaoctets). Ce framework implémente notamment sa propre version de l'algorithme MapReduce, qui a été instauré par Google.

Lire la suite...

Failover with RabbitMQ, the sender's story


When a client connects to a RabbitMQ instance, it must be able to handle the failure of this instance. The cause of the failure can be an abrupt crash or a network glitch. These things happen, especially in cloud environments, where anything can die, anytime. Applications can't rely blindly on the middleware; the software must be able to recover from these kinds of failure, and not crash miserably. Let's see how a message sender can be made more robust and reliable with the RabbitMQ Java binding first, and then with the Spring AMQP project.

Lire la suite...

What's next : "Akka: Simpler Scalability, Fault-Tolerance, Concurrency & Remoting through Actors" par Jonas Bonér


Lors de la What's Next, Jonas Bonér a présenté Akka, un framework facilitant la réalisation d'applications concurrentes, pouvant passer à l'échelle et tolérantes aux erreurs. Cet article tente de retranscrire le contenu de cette présentation.

Lire la suite...

A Full Javascript Architecture, Part Three - MongoDB


This is the last part in a series of three showing how to build a simple JavaScript architecture.

After seeing how to create a NodeJS application to track tweets and send them to a Google Chrome Extension in real time, we are going to see how to store and query them using a MongoDB database.

For a better understanding, this post starts by explaining the basics of MongoDB and then deals with its integration in a NodeJS application.

Lire la suite...

- page 1 de 2