Kafka et AVRO dans un Job
- Les composants Kafka classiques lisent et écrivent le format JSON uniquement. Donc, si votre Kafka produit ou consomme des données AVRO et que pour une raison ou pour une autre, les composants Kafka pour AVRO ne sont pas disponibles, vous devez utiliser une bibliothèque d'outils AVRO pour convertir vos données entre AVRO et JSON à l'extérieur de votre Job. Par exemple,Vous pouvez télécharger la bibliothèque avro-tools-1.8.2.jar utilisée dans cet exemple, à partir de MVN Repository (uniquement en anglais). Cette commande convertit le fichier out.avro en JSON.
java -jar C:\2_Prod\Avro\avro-tools-1.8.2.jar tojson out.avro
Ou :Cette commande convertit le fichier twitter.json en twitter.avro à l'aide d'un schéma de twitter.avsc.java -jar avro-tools-1.8.2.jar fromjson --schema-file twitter.avsc twitter.json > twitter.avro
- Les composants Kafka pour AVRO sont disponibles dans l'infrastructure Spark uniquement : ils gèrent les données directement dans le format AVRO. Si votre cluster Kafka produit et consomme des données AVRO, utilisez tKafkaInputAvro pour lire les données directement de Kafka et tWriteAvroFields pour envoyer des données AVRO à tKafkaOutput.
Cependant, ces composants ne gèrent pas les données AVRO créées par une bibliothèque d'outils AVRO, car les bibliothèques d'outils AVRO et les composants pour AVRO n'utilisent pas la même approche fournie par AVRO.
- Les fichiers AVRO sont générés avec le schéma AVRO embarqué dans chaque fichier (via org.apache.avro.file.{DataFileWriter/DataFileReader}). Les bibliothèques d'outils AVRO utilise cette approche.
- Les enregistrements AVRO sont générés sans embarquer le schéma dans chaque enregistrement (via org.apache.avro.io.{BinaryEncoder/BinaryDecoder}). Les composants Kafka pour AVRO utilisent cette approche.
Cette approche est fortement recommandée et privilégiée lorsque les messages AVRO d'encodage sont constamment écrits dans un topic Kafka, parce que dans cette approche, aucune charge engagée pour rembarquer le schéma AVRO dans chacun des messages. C'est un avantage important par rapport aux autres approches quand Spark Streaming est utilisé pour lire des données depuis ou écrire des données dans Kafka. Étant donné que les enregistrements (messages) sont généralement petits alors que la taille du schéma AVRO est relativement importante, le fait d'embarquer le schéma de chaque message n'est pas coûteux.
Les sorties des deux approches ne peuvent pas être mélangées dans le même processus en lecture seule.