先說一下今天遇到的問題 一個導出excel的處理,在按鈕按下后需要傳很大一個數據到后台,剛開始的做法如下: 上面的data就是一個很長的字符串。 這樣在火狐和谷歌瀏覽器都是沒有問題的,但是在ie9(其他ie沒試,應該同理)就不能正常導出 導致這個問題的原因是各種瀏覽器 ...
報錯如下 意思是數據包長度大於jute.maxBuffer允許的長度。 源碼詳情 zookeeper的默認值最大值為 M。所以Druid一些數據大於默認上限時就會報錯。 解決辦法 進入zk的conf目錄下,新建一個java.env文件 將 Djute.maxbuffer 設置為 M 同步修改所有節點后重啟 強烈建議Druid單獨部署一套zookeeper集群 ...
2020-12-28 21:04 0 386 推薦指數:
先說一下今天遇到的問題 一個導出excel的處理,在按鈕按下后需要傳很大一個數據到后台,剛開始的做法如下: 上面的data就是一個很長的字符串。 這樣在火狐和谷歌瀏覽器都是沒有問題的,但是在ie9(其他ie沒試,應該同理)就不能正常導出 導致這個問題的原因是各種瀏覽器 ...
解決辦法一: 1.在mysql中修改 查看binlog過期時間,這個值默認是0天,也就是說不自動清理,可以根據生產情況修改,目前環境是設置的60天。 show variables like 'expire_logs_days'; set global ...
1.錯誤為:插入亂碼 報錯: Python模塊MySQLdb操作mysql出現2019錯誤:Can't initialize character set utf-8 解決: 寫入數據語句為: cnn = MySQLdb.connect ...
解決Docker占用磁盤空間太大的問題docker system 命令1.查看磁盤空間資源情況統計表2.借助docker自帶自動化清理工具進行清理(請自重)手動清理 Docker 鏡像(Image)/容器(Container)/書卷(Volume)刪除所有關閉的容器刪除所有 dangling鏡像 ...
在MySQL數據庫中,如果不指定innodb_file_per_table=1參數單獨保存每個表的數據,MySQL的數據都會存放在ibdata1文件里,時間久了這個文件就會變的非常大。 下面是參考網上的一些資料,把數據分別保存在各數據庫子目錄里的方法,這樣新產生的ibdata1文件就不會太大 ...
在使用MongoDB的時候遇到了一個內存占用的問題,爬蟲爬過來的圖片在庫中存的是網絡地址,要寫一個腳本對圖片進行分批下載,所以會對MongoDB頻繁查詢。發現使用過程中mongod的服務占用了40. ...
在使用phpmyadmin導入數據庫的時候可能會碰到由於數據庫文件太大而無法導入的問題! 英文提示如下:File exceeds the maximum allowed size 如果正在使用的主機可以自定義php.ini的話,就可以通過直接修改這個文件來解決,即通過通過編輯php.ini文件 ...
MySQL ibdata1文件太大的解決辦法 在MySQL數據庫中,如果不指定innodb_file_per_table=1參數單獨保存每個表的數據,MySQL的數據都會存放在ibdata1文件里,時間久了這個文件就會變的非常大。 下面是參考網上的一些資料,把數據 ...