ClickHouse 表引擎之日志

日志表引擎简介 数据量 100 万行一下,一次写入多次查询 不支持索引、分区、并发读写 TinyLog 表引擎 数据文件按列存储 无标记文件,不支持并行读取 声明 1 ENGINE = TinyLog() StripeLog 表

ClickHouse 表引擎之 Buffer

Buffer 表引擎简介 只写内存,无持久化存储 缓冲高并发写入,满足条件时,Buffer 表会把数据刷新到目标表 创建 Join 引擎表 声明 1 2 3 4 5 6 7 8 9 10 11 ENGINE = Buffer(

ClickHouse 表引擎之 Join

Join 表引擎简介 数据先写内存,再同步到磁盘,服务重启后全量加载到内存 与 Set 表引擎共用大部分处理逻辑 简单封装了一层 JOIN 查询,主要用做 JOIN 查询 创建 Join 引擎表

ClickHouse 表引擎之 Set

Set 表引擎简介 数据先写内存,再同步到磁盘,服务重启后全量加载到内存 支持 INSERT,写入时,重复数据被忽略 不能直接 SELECT,只能作为 IN 查询

ClickHouse 表引擎之 Memory

Memory 表引擎简介 数据只存于内存中,无压缩,无格式转换 支持并行查询 一般用于 clickhouse 内部,作为集群间分发数据的载体 创建 Memory 引擎表 声明 1 ENGINE = Memory()

ClickHouse 表引擎之 File

File 表引擎简介 直接读取本地文件 修改文件 = 数据更新 导出数据到本地文件 数据格式转换 创建 FILE 引擎表 声明 1 ENGINE = File('format') format 是文件中的数据格式,如 TSV、CSV 和

ClickHouse 表引擎之 Kafka

Kafka 表引擎简介 对接 Kafka 系统,订阅 Kafka 主题,接收消息 创建 Kafka 引擎表 声明 1 2 3 4 5 6 7 8 9 10 11 ENGINE = Kafka() SETTINGS kafka_broker_list = 'host:port, ...', kafka_topic_list = 'topic1, topic2, ...', kafka_group_name = 'consumer_group_name', kafka_format = 'data_format', [kafka_row_delimiter = 'delimiter_symbol',] [kafka_schema = '',] [kafka_num_consumers = N,] [kafka_skip_broken_messages

ClickHouse 表引擎之 MySQL

MySQL 表引擎简介 可以与 MySQL 数据库中的表建立映射 只支持 SELECT 和 INSERT,不支持 UPDATE 和 DELETE 创建 MySQL 引擎表 声明 1 2 3 4 5 6 7 8 9 10 11 ENGINE = MySQL( 'host:port', 'database', 'table', 'user', 'password' [, replace_query, 'on_duplicate_clause' ] )

ClickHouse 数据字典

简介 常驻内存,支持动态更新 适合保存常量和经常使用的维度表数据 可通过字典函数访问,也可通过袋里表与其他数据表实现 JOIN 查询 内置字典 默认禁用 不想写了