常见问题

主要包含一些使用数据库时经常需要注意到的问题,需要持续更新。

导入问题

  1. 导入大型文件可能遇到context canceled错误, 或者重复重启导入很多次也无法完成, 导致这个的原因是比较高的磁盘争用。 解决方法,设置一个低于最大磁盘写入速度的值来缓解, 例如SET CLUSTER SETTING kv.bulk_io_write.max_rate = '10MB';

  2. 导入格式问题,原则上需要导入标准csv,一些常用的csv导入参数:

    delimiter分隔符,

    strict_quotes是否严格csv(如果在一个字段里存在"",默认关闭)

    nullif 转化null

    rows_terminated_by 行分隔

    fields_enclosed_by 字段关闭规则,默认"

    fields_escaped_by 特殊字符处理。

副本数

默认3副本,容忍同时一个节点宕机,可通过ALTER RANGE ... CONFIGURE ZONE USING num_replicas=...;来设置这个区域内的副本数(默认配置在一个区域,对于大型的集群按机架、位置等设置区域)

错误日志

如果在某些节点已经被停用的状态下,在其他节点上遇到grpc: addrConn.createTransport failed to connect to错误日志,目前的解决办法是滚动重启。

依赖于grpc,grpc存在这个问题,目前无法避免