[英]Logstash JDBC Input plugin : Migrate data from mysql in batch count
[英]Set MySQL conf in JDBC Input plugin in Logstash
我在logstash
使用JDBC Input plugin
基于MySQL queries
对数据进行索引。
我能够成功为数据建立索引并获得输出,但是,我仍然坚持这一点。
我的查询之一需要设置group_concat_max_len
。 有没有办法在输入插件本身中容纳这个? 因为我要避免在全局级别设置此设置。
我在此站点输入了不同的输入参数,但没有解决我的问题的方法
这是我的示例输入插件:
input{
jdbc{
jdbc_connection_string=>"hostname"
jdbc_user=>"user"
jdbc_password=>"password"
jdbc_driver_library=>"path/to/library"
jdbc_driver_class=>"com.mysql.jdbc.Driver"
lowercase_column_names => "false"
statement_filepath => "query.sql"
}
}
我也尝试在query.sql文件中进行设置,但看起来应该只存在一个查询。
谢谢您的帮助!!
如果使用docker-compose,只需在容器中设置此变量。
version: '2.1'
services:
db:
image: mysql
environment:
- MYSQL_USER=root
- MYSQL_PASSWORD=
- MYSQL_DATABASE=mydb
- MYSQL_ROOT_PASSWORD=
- MYSQL_ROOT_PASSWORD=root
command: --group_concat_max_len=65535
ports:
- "3306:3306"
在您的数据库中检查它:SELECT @@ GLOBAL.group_concat_max_len;
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.