您的位置:首页 > 健康 > 养生 > 小程序源码提取工具_杭州知名设计公司有哪些_站长工具域名查询社区_曲靖seo

小程序源码提取工具_杭州知名设计公司有哪些_站长工具域名查询社区_曲靖seo

2025/2/24 7:20:27 来源:https://blog.csdn.net/pengShuai007/article/details/145803198  浏览:    关键词:小程序源码提取工具_杭州知名设计公司有哪些_站长工具域名查询社区_曲靖seo
小程序源码提取工具_杭州知名设计公司有哪些_站长工具域名查询社区_曲靖seo

如何解决Clickhouse数据库Too many parts/memory exceed limit报错

问题现象

  • clickhouse数据库服务日志报错Too many parts.Merges are processing significantly slower than inserts exception.
  • clickhouse数据库服务报错memory exceed limit

问题原因分析

  1. 针对单张表单个分区频繁写入小数据量,数据库形成大量小碎片Parts,Clickhouse后台开始逐步进行小碎片合并为大碎片,消耗服务CPU/内存资源
  2. 单张表单个分区活跃数据分片(Parts)数量大于服务配置参数parts_to_delay_insert值后,服务开始启动延迟插入,人为减慢新入库数据写入速度,进行自我保护,可能造成数据积压
  3. 此时如果持续插入数据,单表单个分区活跃数据分片(Parts)数量大于服务配置参数parts_to_throw_insert参数,服务开始中断插入,报错Too many parts,造成数据丢失
  4. clickhouse数据库为OLAP数据库,执行Alter/Update/Delete等操作会产生突变,对应表所有已入库数据在后台会自动重新入库,造成服务压力。

在这里插入图片描述

问题解决建议

  1. 优化查询/写入类操作
    1)单次写入同一分区数据,避免跨分区操作,资源消耗更大
    2)单次写入条数大于1W条,避免产生过多数据碎片,服务合并消耗资源
    3)避免变更表结构,以及更新/删除数据

  2. 优化clickhouse服务参数
    1)parts_to_delay_insert参数调整为1000,减缓延迟插入动作,避免数据积压
    2)parts_to_throw_insert参数调整为3000,减缓插入报错问题,避免数据丢失
    3)max_memory_usage参数调整,限制单次查询/插入内存使用上限

以上参数仅作参考,实际环境可以根据资源情况验证调整。

解决memory exceed limit问题同样可以参考上述配置调整。

在这里插入图片描述

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com