docker端口映射失败排查
2022年2月22日
Docker前言
win10下,docker启动了apisix dashboard容器,浏览器和CURL命令获取容器服务都失败, curl http://127.0.0.1:9000
排查思路
- 检查容器是否启动正常
- 检查容器端口配置映射是否正常
- 检查宿主机端口是否开启正常
- 检查宿主机端口占用进程
2022年2月22日
Dockerwin10下,docker启动了apisix dashboard容器,浏览器和CURL命令获取容器服务都失败, curl http://127.0.0.1:9000
2022年2月16日
架构一直在网上文章看到kafka是磁盘顺序写,所以效率更高,但是从磁盘的物理设计来考虑,又不可能真正的顺序,一直很纠结,找了一些资料,简单记录
因为Kafka消息在使用时不会被删除(就像在其他消息代理中一样)Kafka不会通过不断创建和删除许多变量长度来创建碎片文件系统文件。相反,它会创建段文件,然后附加到该文件,直到达到1GB(可配置的限制)
建议最佳做法是将这些Kafka提交日志文件保存在专用文件系统上,以免其他应用程序读取和写入可变长度文件到同一文件系统中。
rabbitMQ对于可靠性的设计更好,有ack消息确认机制,当ack消息确认后,该消息从队列删除,不管是真正的磁盘删除还是修改消息状态,都要涉及到文件的寻址,所以会稍慢.
2022年2月15日
架构公司在快速开发阶段,将日志存入了Mysql,不利于做各做条件的检索查询。速度较慢。使用ELK方案,优化该部分逻辑。并开发toB日志自查系统,提供给客户快速对接。
Elasticsearch、Logstash 和 Kibana 三个软件的简称
原文地址-> https://blog.siammm.cn/archives/320 来自:siam博客。简单理解和笔记
这个不用说,必须安装
用于收集日志,在程序和ES之间,可以让程序产生的日志不用直接提交到ES,减少传输时间。 程序可以插入到Redis,Kafka Logstash相当于队列消费者,将日志写入ES
2021年10月27日
代码片段2021年10月25日
PHP2021年9月6日
PHP2021年7月5日
PHP2021年6月21日
数据库从线上备份拉了一个备份sql压缩包,想导入到本地开发脚本测试 使用Navicat Premium(试用) 导入时,报错max_allowed_packet参数相关的错误, 原因是mysql.ini配置中,设置了相关的执行脚本的最大包,默认是2M,我导出的文件有190+M,故 执行失败
最大执行包 设置为200M(具体根据你的脚本文件,可以设置大一点。)
set global max_allowed_packet = 200*1024*1024
在本地执行完就无所谓啦,如果在线上生产中使用,记得导入完成之后要把参数改为默认的哦~
2021年5月26日
代码片段2021年4月30日
PHP