开源节流,站点域名更改为 www.5201.pub

标签 shower 下的文章

debian7换源

debian7换源
wget -N --no-check-certificate -P /etc/apt https://softs.fun/Bash/sources/us.sources.list
rm -rf /etc/apt/sources.list
cp /etc/apt/us.sources.list /etc/apt/sources.list

centos6 epel错误

vi /etc/yum.repos.d/epel.repo

AntagonisT 2018/6/18 0:23:36

baseurl

mirrorlist

改成

baseurl

mirrorlist

#搬瓦工#19刀CN2补货啦~手慢无~内含优惠吗~

板瓦工大家都知道,虽然贵点,但做站稳的一笔,业界口碑很好,经常没货,如今少量放货,需要的抓紧上车

搬瓦工19刀补货:购买后,后台可切换CN2,价格一样,推荐KVM,可以上锐速

【KVM】
SSD: 10 GB RAID-10
RAM: 512 MB
CPU: 1x Intel Xeon
Transfer: 500 GB/mo
Link speed: 1 Gigabit

https://bwh1.net/aff.php?aff=11920&pid=43

【OVZ】

https://bwh1.net/aff.php?aff=11920&pid=12

优惠码:BWH1ZBPVK 可优惠大约5%

Linux下分卷压缩较大的文件

有没有遇到某些网站上传复件时,单个文件有大小限制,导致上传失败呢?当然你可以采用更高的压缩率重新生成压缩包来解决,但如果还是超出大小限制,那该怎么办呢?有个方法可以解决此类问题,将压缩包分成多个文件,问题就迎刃而解,这就叫:分卷压缩。
如何进行分卷压缩与解压呢,有如下几个命令可供使用:
假设当前目录下有proc目录。

tar -czf - proc | split -b 2m -d - proc.tar.gz #分卷压缩proc目录,并保持每个压缩包的大小不超过2m字节。命令执行后,会生成proc.tar.gz00、proc.tar.gz01等文件

cat proc.tar.gz* | tar -xzf - #将各个分卷压缩包解压到当前目录

cat proc.tar.gz* > proc.tar.gz #将各个分卷压缩包合成为一个proc.tar.gz文件

附录:split命令的使用
split proc.tar.gz -b 2m #将proc.tar.gz文件分割为多个小文件,并保持每个小文件的大小不超过2m字节。命令运行后,源文件依然存在。生成的小文件以默认格式命名,为:xaa、xab等
split proc.tar.gz -b 2m -d #基本同上,只是生成的小文件以数字格式命名,为:x00、x01等
split proc.tar.gz -b 2m -d proc.tar.gz #基本同上,只是生成的小文件名前缀是自定义的,为:proc.tar.gz00、proc.tar.gz01等
split a.txt -C 300k -d a.txt #将a.txt文本文件分割为多个小文件,并保持每个小文件的大小不超过300k字节,而且尽量保持每行的完整性

Centos 6.4 python 2.6 升级到 2.7

一开始有这个需求,是因为用 YaH3C 替代 iNode 进行校园网认证时,一直编译错误,提示找不到 Python 的某个模块,百度了一下,此模块是在 Python2.7 以上才有的,但是系统的自带的Python是2.6版本,难怪一直连不上网。于是,继续百度google,进行安装,后来又出现问题...在此开篇记录一下,权当备忘。

- 阅读剩余部分 -