检查扎兰屯服务器的时候,发现其中一个分区的原空间有300多个G,但只余下了80多个G。检查了一下,发现某库ldf文件过大,竟然达到了280多个G。 这如何得了,再这样下去,硬盘怎能受得了? 尝试用收缩文件,然后收缩日志的方式减少文件大小,结果发现不太稳定,且没有效果。 由于ldf文件 ...
git中commit了过大的文件的解决办法 由于我作死的忘了把编译生成的文件过滤掉,导致提交历史中一直有个高达 多M的文件,一直提交不了github和gitee,我试过网上其他什么方法,都不太管用, 如: https: gitee.com help articles article header 最后还是这个办法管用。 解决思路 在网上看到了一个大神的帖子,虽然没有详细的步骤,但是一语惊醒梦中人。 ...
2021-03-05 10:40 0 544 推荐指数:
检查扎兰屯服务器的时候,发现其中一个分区的原空间有300多个G,但只余下了80多个G。检查了一下,发现某库ldf文件过大,竟然达到了280多个G。 这如何得了,再这样下去,硬盘怎能受得了? 尝试用收缩文件,然后收缩日志的方式减少文件大小,结果发现不太稳定,且没有效果。 由于ldf文件 ...
先浅层clone 浅层clone成功后,再完整拉取: 这样就可以拉取下来了 ...
vi 编辑 vim 编辑 a 进入编辑模式 esc 退出编辑模式 shift+: (看见: ) 代表开始执行下一行命名 w->q 保存退出 q->! 不保存退出 cat->空格->文件名 查看文件 ...
使用navicat mysql导入sql总会出现许多的error,导致导入的sql不完整。这个问题说到底是mysql执行时间、文件大小限制,只要这样配置下,就可以正常o error导入了。 将上面四条命令在mysql命令行分别执行,全部执行成功后,即可去重新导入sql了。 解释 ...
w->q 保存退出 q->! 不保存退出 cat->空格->文件 ...
/89371392 背景1:TCX_1807现场数据库的mdf文件有90+G,ldf文件倒是不到只有几兆,我怀疑是 ...
git commit 提交的时候报错husky > pre-commit hook failed (add --no-verify to bypass)(解决办法) 这个问题是因为当你在终端输入git commit -m "XXX",提交代码的时候,pre-commit(客户端)钩子 ...
在本地编写完代码,commit之后,准备切割新分支重新拉取一下远程代码, 在切换回本地原来的分支发现刚编写的代码丢失了,查找了各种方法, 最后在CSDN平台上面用户“缓月”的博客中找到解决方法,特此感谢并记录一下 原地址:https://blog.csdn.net ...