繁体   English   中英

使用python Spark将大型CSV发送到Kafka

[英]Sending Large CSV to Kafka using python Spark

我正在尝试向kafka发送一个大的CSV。 基本结构是读取CSV的一行并用标题压缩它。

a = dict(zip(header, line.split(",")

然后将其转换为json:

message = json.dumps(a)

然后我使用kafka-python库发送消息

from kafka import SimpleProducer, KafkaClient
kafka = KafkaClient("localhost:9092")
producer = SimpleProducer(kafka)
producer.send_messages("topic", message)

使用PYSPARK我很容易从CSV文件中创建RDD消息

sc = SparkContext()
text = sc.textFile("file.csv")
header = text.first().split(',')
def remove_header(itr_index, itr):
    return iter(list(itr)[1:]) if itr_index == 0 else itr
noHeader = text.mapPartitionsWithIndex(remove_header)

messageRDD = noHeader.map(lambda x: json.dumps(dict(zip(header, x.split(","))

现在我想发送这些消息:我定义了一个函数

def sendkafka(message):
  kafka = KafkaClient("localhost:9092")
  producer = SimpleProducer(kafka)
  return producer.send_messages('topic',message)

然后我创建一个新的RDD来发送消息

sentRDD = messageRDD.map(lambda x: kafkasend(x))

然后我调用sentRDD.count()

哪个开始搅拌和发送消息

不幸的是,这很慢。 它每秒发送1000条消息。 这是一个10节点的集群,每个集群有4个cpus和8GB的内存。

相比之下,在1000万行csv上创建消息大约需要7秒。 〜约2gb

我认为问题是我在函数内实例化一个kafka生成器。 然而,如果我不这样做就会引发抱怨,即使我尝试在全球范围内定义它,生产者也不存在。

也许有人可以阐明如何解决这个问题。

谢谢,

您可以为每个分区创建一个生产者,并使用mapPartitionsforeachPartition

def sendkafka(messages):
    kafka = KafkaClient("localhost:9092")
    producer = SimpleProducer(kafka)
    for message in messages:
        yield producer.send_messages('topic', message)

sentRDD = messageRDD.mapPartitions(sendkafka)

如果单独上面没有帮助,您可以尝试使用异步生成器扩展它。

在Spark 2.x中,也可以使用Kafka数据源。 你必须包含spark-sql-kafka jar,匹配Spark和Scala版本(分别为2.2.0和2.11):

spark.jars.packages  org.apache.spark:spark-sql-kafka-0-10_2.11:2.2.0

将数据转换为DataFrame (如果它不是DataFrame ):

messageDF = spark.createDataFrame(messageRDD, "string")

并使用DataFrameWriter编写:

(messageDF.write
    .format("kafka")
    .option("topic", topic_name)
    .option("kafka.bootstrap.servers", bootstrap_servers)
    .save())

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM