主要包含一些使用数据库时经常需要注意到的问题,需要持续更新。
导入大型文件可能遇到context canceled
错误,
或者重复重启导入很多次也无法完成,
导致这个的原因是比较高的磁盘争用。
解决方法,设置一个低于最大磁盘写入速度的值来缓解,
例如SET CLUSTER SETTING kv.bulk_io_write.max_rate = '10MB';
导入格式问题,原则上需要导入标准csv,一些常用的csv导入参数:
delimiter
分隔符,
strict_quotes
是否严格csv(如果在一个字段里存在""
,默认关闭)
nullif
转化null
rows_terminated_by
行分隔
fields_enclosed_by
字段关闭规则,默认"
fields_escaped_by
特殊字符处理。
默认3副本,容忍同时一个节点宕机,可通过ALTER RANGE ... CONFIGURE ZONE USING num_replicas=...;
来设置这个区域内的副本数(默认配置在一个区域,对于大型的集群按机架、位置等设置区域)
如果在某些节点已经被停用的状态下,在其他节点上遇到grpc: addrConn.createTransport failed to connect to
错误日志,目前的解决办法是滚动重启。
依赖于grpc,grpc存在这个问题,目前无法避免