id
int64
2.05k
16.6k
title
stringlengths
5
75
fromurl
stringlengths
19
185
date
timestamp[s]
tags
sequencelengths
0
11
permalink
stringlengths
20
37
content
stringlengths
342
82.2k
fromurl_status
int64
200
526
status_msg
stringclasses
339 values
from_content
stringlengths
0
229k
5,747
如何在 Cacti 中合并两幅图片
http://xmodulo.com/combine-two-graphs-cacti.html
2015-07-03T15:49:00
[ "Cacti", "RRD" ]
https://linux.cn/article-5747-1.html
[Cacti](/article-5746-1.html) 是一个很棒的开源网络监视系统,它广泛使用于图形化地展示网络元素,例如带宽、存储、处理器和内存使用。使用它的基于Web 的界面,你可以轻松地创建和组织各种图表。然而,它默认并没有提供一些高级功能,例如合并图片、使用多个来源创建聚合图形、迁移 Cacti 到另一台服务器。使用 Cacti 的这些功能你还需要一些经验。在该教程中,我们会看到如何在将两幅 Cacti 图片合并为一幅。 看看这个例子。在过去的 6 个月中,客户端 A 连接到了交换机 A 的端口 5。端口 5 发生了错误,因此客户端迁移到了端口 6。由于 Cacti 为每个接口/元素使用不同的图,客户端的带宽历史会分成端口 5 和端口 6。结果是对于一个客户端我们有两幅图片 - 一幅是 6 个月的旧数据,另一幅保存了后续的数据。 在这种情况下,我们实际上可以合并两幅图片将旧数据加到新的图中,使得用一个单独的图为一个用户保存历史的和新数据。本教程将会解释如何做到这一点。 Cacti 将每幅图片的数据保存在它自己的 RRD(round robin database,循环数据库)文件中。当请求一幅图片时,根据保存在对应 RRD 文件中的值生成图。在 Ubuntu/Debian 系统中,RRD 文件保存在 `/var/lib/cacti/rra`,在 CentOS/RHEL 系统中则是 `/var/www/cacti/rra`。 合并图片背后的思想是更改这些 RRD 文件使得旧 RRD 文件中的值能追加到新的 RRD 文件中。 ### 情景 一个客户端的服务在 eth0 上运行了超过一年。由于硬件损坏,客户端迁移到了另一台服务器的 eth1 接口。我们想展示新接口的带宽,同时保留超过一年的历史数据。该客户端希望只在一幅图中显示。 ### 确定图的 RRD 文件 图合并的首个步骤是确定与图相关联的 RRD 文件。我们可以通过以调试模式打开图检查文件。要做到这点,在 Cacti 的菜单中: 控制台 > 管理图 > 选择图 > 打开图调试模式。 #### 旧图: ![](/data/attachment/album/201507/02/225211y2nx3n5l82hhnjdv.jpg) #### 新图: ![](/data/attachment/album/201507/02/225213yo3j47w323o04jww.jpg) 从样例输出(基于 Debian 系统)中,我们可以确定两幅图片的 RRD 文件: * **旧图**: /var/lib/cacti/rra/old\_graph\_traffic\_in\_8.rrd * **新图**: /var/lib/cacti/rra/new\_graph\_traffic\_in\_10.rrd ### 准备脚本 我们会用一个 [RRD 剪接脚本](http://svn.cacti.net/viewvc/developers/thewitness/rrdsplice/rrdsplice.php) 来合并两个 RRD 文件。下载该 PHP 脚本,并安装到 /var/lib/cacti/rra/rrdsplice.php (Debian/Ubuntu 系统) 或 /var/www/cacti/rra/rrdsplice.php (CentOS/RHEL 系统)。 下一步,确认 Apache 用户拥有该文件。 在 Debian 或 Ubuntu 系统中,运行下面的命令: ``` # chown www-data:www-data rrdsplice.php ``` 并更新 rrdsplice.php。查找下面的行: ``` chown($finrrd, "apache"); ``` 用下面的语句替换: ``` chown($finrrd, "www-data"); ``` 在 CentOS 或 RHEL 系统中,运行下面的命令即可: ``` # chown apache:apache rrdsplice.php ``` ### 合并两幅图 通过不带任何参数运行该脚本可以获得脚本的使用语法。 ``` # cd /path/to/rrdsplice.php # php rrdsplice.php ``` --- ``` USAGE: rrdsplice.php --oldrrd=file --newrrd=file --finrrd=file ``` 现在我们准备好合并两个 RRD 文件了。只需要指定旧 RRD 文件和新 RRD 文件的名称。我们会将合并后的结果重写到新 RRD 文件中。 ``` # php rrdsplice.php --oldrrd=old_graph_traffic_in_8.rrd --newrrd=new_graph_traffic_in_10.rrd --finrrd=new_graph_traffic_in_10.rrd ``` 现在旧 RRD 文件中的数据已经追加到了新 RRD 文件中。Cacti 会将任何新数据写到新 RRD 文件中。如果我们点击图,我们可以发现也已经添加了旧图的周、月、年记录。下面图表中的第二幅图显示了旧图的周记录。 ![](/data/attachment/album/201507/02/225220n727g2h7f7d2nnyf.jpg) 总之,该教程显示了如何简单地将两幅 Cacti 图片合并为一幅。当服务迁移到另一个设备/接口,我们希望只处理一幅图片而不是两幅时,这个小技巧非常有用。该脚本非常方便,因为它可以不管源设备是不是相同都可以合并图片,例如 Cisco 1800 路由器和 Cisco 2960 交换机。 希望这些能对你有所帮助。 --- via: <http://xmodulo.com/combine-two-graphs-cacti.html> 作者:[Sarmed Rahman](http://xmodulo.com/author/sarmed) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,748
Linux 服务器安全技巧
http://www.linuxveda.com/2015/06/03/secure-linux-server/
2015-07-03T10:04:00
[ "服务器", "安全" ]
https://linux.cn/article-5748-1.html
毋庸置疑,对于系统管理员,提高服务器的安全性是最重要的事情之一。因此,也就有了许多针对这个话题而生的文章、博客和论坛帖子。 一台服务器由大量功能各异的部件组成,这一点使得很难根据每个人的需求去提供定制的解决方案。这篇文章尽可能涵盖一些有所裨益的小技巧来帮助管理员保证服务器和用户安全。 有一些常识是每个系统管理员都应该烂熟于心的,所以下面的几点在本文将不会提及: * 务必保证系统是**最新的** * 经常更换密码 - 使用数字、字母和非字母的符号组合 * 给予用户**最小**的权限,满足他们日常使用所需即可 * 只安装那些真正需要的软件包 ![](/data/attachment/album/201507/03/100435cuo93k1715ekhvxo.jpg) 下面是一些更有意思的内容: ### 更改SSH默认端口 在搭建好一台全新的服务器后要做的第一件事情就是更改SSH的默认端口。这个小小的改动能够使你的服务器避免受到成千上万的暴力攻击(LCTT 译注:不更改默认端口相当于黑客们知道你家的门牌号,这样他们只需要一把一把的试钥匙就可能打开你家的锁)。 要更改默认的SSH端口,先打开sshd\_config文件: ``` sudo vim /etc/ssh/sshd_config ``` 找到下面这行: ``` #Port 22 ``` “#”号表示这行是注释。首先删除#号,然后把端口号改成目的端口。端口号不能超过65535,确保要指定的端口号没有被系统或其它服务占用。建议在[维基百科]上查看常用端口号列表。在本文中,使用这个端口号: ``` Port 16543 ``` 然后保存并关闭文件。 接下来的一步是: ### 使用SSH密钥认证 在通过SSH访问服务器时,使用SSH密钥进行认证是尤其重要的。这样做为服务器增加了额外的保护,确保只有那些拥有密钥的人才能访问服务器。 在本地机器上运行下面命令以生成SSH密钥: ``` ssh-keygen -t rsa ``` 你会看到下面的输出,询问要将密钥写到哪一个文件里,并且设置一个密码: ``` Generating public/private rsa key pair. Enter file in which to save the key (/root/.ssh/id_rsa): my_key Enter passphrase (empty for no passphrase): Enter same passphrase again: Your identification has been saved in my_key. Your public key has been saved in my_key.pub. The key fingerprint is: SHA256:MqD/pzzTRsCjZb6mpfjyrr5v1pJLBcgprR5tjNoI20A ``` 完成之后,就得到两个文件: my\_key my\_key.pub 接下来把my\_key.pub拷贝到~/.ssh/authorized\_key中 ``` cp my_key.pub ~/.ssh/authorized_keys ``` 然后使用下面命令将密钥上传到服务器: ``` scp -P16543 authorized_keys user@yourserver-ip:/home/user/.ssh/ ``` 至此,你就可以从这台本地机器上无密码地访问服务器了。 ### 关闭SSH的密码认证 既然已经有了SSH密钥,那么关闭SSH的密码认证就会更安全了。再次打开并编辑sshd\_config,按如下设置: ``` ChallengeResponseAuthentication no PasswordAuthentication no UsePAM no ``` ### 关闭Root登录 下面关键的一步是关闭root用户的直接访问,而使用sudo或su来执行管理员任务。首先需要添加一个有root权限的新用户,所以编辑这个路径下的sudoers文件: ``` /etc/sudoers/ ``` 推荐使用如**visudo**这样的命令编辑该文件,因为它会在关闭文件之前检查任何可能出现的语法错误。当你在编辑文件时出错了,这就很有用了。 接下来赋予某个用户root权限。在本文中,使用用户**sysadmin**。确保在编辑后这个文件时使用的用户是系统已有的用户。找到下面这行: ``` root ALL=(ALL) ALL ``` 拷贝这行,然后粘贴在下一行,然后把root更改为“sysadmin”,如下所示: ``` root ALL=(ALL) ALL sysadmin ALL=(ALL) ALL ``` 现在解释一下这行的每一个选项的含义: ``` (1) root (2)ALL=(3)(ALL) (4)ALL ``` (1) 指定用户 (2) 指定用户使用sudo的终端 (3) 指定用户可以担任的用户角色 (4) 这个用户可以使用的命令 (LCTT 译注:所以上面的配置是意思是:root 用户可以在任何终端担任任何用户,执行任何命令。) 使用这个配置可以给用户访问一些系统工具的权限。 这时,可以放心保存文件了。 为了关闭通过SSH直接访问root,需要再次打开**sshd\_config**,找到下面这行: ``` #PermitRootLogin yes ``` 更改为: ``` PermitRootLogin no ``` 然后保存文件,重启sshd守护进程使改动生效。执行下面命令即可: ``` sudo /etc/init.d/sshd restart ``` ### 设置防火墙 防火墙有助于过滤出入端口和阻止使用暴力法的登录尝试。我倾向于使用SCF(Config Server Firewall)这个强力防火墙。它使用了iptables,易于管理,而且对于不擅于输入命令的用户提供了web界面。 要安装CSF,先登录到服务器,切换到这个目录下: ``` cd /usr/local/src/ ``` 然后以root权限执行下面命令: ``` wget https://download.configserver.com/csf.tgz tar -xzf csf.tgz cd csf sh install.sh ``` 只需等待安装程序完成,然后编辑CSF的配置文件: ``` /etc/csf/csf.conf ``` 默认情况下CSF是以测试模式运行。通过将“TESTING”的值设置成0,切换到product模式。 ``` TESTING = "0" ``` 下面要设置的就是服务器上允许通过的端口。在csf.conf中定位到下面的部分,根据需要修改端口: ``` # 允许入站的 TCP 端口 TCP_IN = "20,21,25,53,80,110,143,443,465,587,993,995,16543" # 允许出站的 TCP 端口 TCP_OUT = "20,21,22,25,53,80,110,113,443,587,993,995,16543" # 允许入站的 UDP 端口 UDP_IN = "20,21,53" # 允许出站的 UDP 端口 # 要允许发出 traceroute 请求,请加 33434:33523 端口范围到该列表 UDP_OUT = "20,21,53,113,123" ``` 请根据需要逐一设置,推荐只使用那些需要的端口,避免设置对端口进行大范围设置。此外,也要避免使用不安全服务的不安全端口。比如只允许端口465和587来发送电子邮件,取代默认的SMTP端口25。(LCTT 译注:前提是你的邮件服务器支持 SMTPS) **重要**:千万不要忘记允许自定义的 ssh 端口。 允许你的IP地址通过防火墙,而绝不被屏蔽,这一点很重要。IP地址定义在下面的文件中: ``` /etc/csf/csf.ignore ``` 被屏蔽了的IP地址会出现在这个文件中: ``` /etc/csf/csf.deny ``` 一旦完成更改,使用这个命令重启csf: ``` sudo /etc/init.d/csf restart ``` 下面是在某台服务器上的csf.deny文件的部分内容,来说明CSF是很有用的: ``` 211.216.48.205 # lfd: (sshd) Failed SSH login from 211.216.48.205 (KR/Korea, Republic of/-): 5 in the last 3600 secs - Fri Mar 6 00:30:35 2015 103.41.124.53 # lfd: (sshd) Failed SSH login from 103.41.124.53 (HK/Hong Kong/-): 5 in the last 3600 secs - Fri Mar 6 01:06:46 2015 103.41.124.42 # lfd: (sshd) Failed SSH login from 103.41.124.42 (HK/Hong Kong/-): 5 in the last 3600 secs - Fri Mar 6 01:59:04 2015 103.41.124.26 # lfd: (sshd) Failed SSH login from 103.41.124.26 (HK/Hong Kong/-): 5 in the last 3600 secs - Fri Mar 6 02:48:26 2015 109.169.74.58 # lfd: (sshd) Failed SSH login from 109.169.74.58 (GB/United Kingdom/mail2.algeos.com): 5 in the last 3600 secs - Fri Mar 6 03:49:03 2015 ``` 可以看到,尝试通过暴力法登录的IP地址都被屏蔽了,真是眼不见心不烦啊! ### 锁住账户 如果某个账户在很长一段时间内都不会被使用了,那么可以将其锁住以防止其它人访问。使用如下命令: ``` passwd -l accountName ``` 当然,这个账户依然可以被root用户使用(LCTT 译注:可用 su 切换为该账号)。 ### 了解服务器上的服务 服务器的本质是为各种服务提供访问功能。使服务器只运行所需的服务,关闭没有使用的服务。这样做不仅会释放一些系统资源,而且也会使服务器变得更加安全。比如,如果只是运行一个简单的服务器,显然不需要X显示或者桌面环境。如果不需要Windows网络共享功能,则可以放心关闭Samba。 使用下面的命令能查看伴随系统启动而启动的服务: ``` chkconfig --list | grep "3:on" ``` 如果系统运行了**systemd**,执行这条命令: ``` systemctl list-unit-files --type=service | grep enabled ``` 然后使用下面的命令关闭服务: ``` chkconfig service off 或 systemctl disable service ``` 在上面的例子中,把“service”替换成真正想要停止的服务名称。实例如下: ``` chkconfig httpd off 或 systemctl disable httpd ``` ### 小结 这篇文章的目的是涵盖一些通用的安全步骤以便帮助你保护服务器。你可以采取更多方式去增强对服务器的保护。请记住保证服务器安全是你的责任,在维护服务器安全时尽量做出明智的选择,尽管并没有什么容易的方式去完成这件事情,而建立“完善的”安全需要花费大量的时间和测试直到达到想要的结果。 --- via: <http://www.linuxveda.com/2015/06/03/secure-linux-server/> 作者:[Marin Todorow](http://www.linuxveda.com/author/marin_todorov/) 译者:[KayGuoWhu](https://github.com/KayGuoWhu) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,763
Linux 命令行中的幽默
http://www.linuxlinks.com/article/20150614112018846/Humor.html
2015-07-07T07:00:00
[ "命令行" ]
https://linux.cn/article-5763-1.html
图形桌面总是很养眼的,它增强了可视化体验,有时也能够提升了某些软件的功能,让软件变得更有趣。但是,在命令行下工作也不需要总是很古板,如果您想在命令行下寻找些乐趣,那么有很多命令给您带来趣味。 Linux是个有趣的操作系统。它提供大量的小型开源工具,从平淡无奇的软件到稀奇古怪的应用。正是这些工具的功能和琳琅满目的选择帮助Linux脱颖而出。让我们一起来看看下面这七个小工具吧。 ### 七彩虹:lolcat ![lolcat](/data/attachment/album/201507/05/215537feqbs18kmkwwcwme.png) lolcat是一个用于将文件或标准输入连接到标准输出(类似常见的cat)的程序,但是它会为输出添加七彩的颜色。 lolcat通常和其他诸如toilet或figlet等生成文本的应用结合使用。这个软件不应被误认为是一个或多个猫的图像的宏。 lolcat由Moe编写。 网址: [github.com](https://github.com/busyloop/lolcat) ### 牛郎的牛:cowsay ![cowsay](/data/attachment/album/201507/05/215539bkt1xdhw9wrotxd0.png) cowsay是一个可配置的开源软件,它用ASCII码生成奶牛的图片,并可以在对话气泡中显示消息。cowsay是用Perl写的。 cowsay并不仅仅只能显示奶牛。它能生成预先制作的图片或者其他动物,包括鸭子、考拉、麋鹿、小马、绵羊、剑龙和火鸡,以及奶酪、雪人和骷髅。 有一个叫cowthink的应用,与对话的气泡不同,它能在生成奶牛的同时生成思考的气泡。 功能包括: * 让脚本变得更有趣 * Borg模式 * 可以更改奶牛看起来的样子,比如让奶牛看起来贪婪、偏执、固执、疲倦、古怪、年轻等 * 图形版变体:xcowsay 网址: [nog.net](https://web.archive.org/web/20120225123719/http://www.nog.net/%7Etony/warez/cowsay.shtml) ### 傻狗:doge ![doge](/data/attachment/album/201507/05/215540zi66krgjj699f966.png) doge是一个简单的每日信息脚本,它基于有些愚蠢但很有趣的doge的梗。它随机的打印一些在语法上有误的句子,有时这些句子基于您电脑中的东西。 doge是一个在2013年非常流行的互联网潮流元素(梗)。这个梗通常由一幅日本柴犬的图片和彩色的文字组成。这些文字故意用一种蹩脚的语气写成了一些互联网的独白。 * 随机的用不同的颜色和蹩脚的英语写下随机的句子 * 终端中的柴犬效果非常棒 * 可以获得系统数据,比如主机名、运行中的程序、当前用户、$EDITOR * 如果您安装了lolcat,您可以用它作为点缀: `while true; do doge | lolcat -a -d 100 -s 100 -p 1; done` * 支持标准输入: `ls /usr/bin | doge` 将显示一些 /usr/bin下的可执行文件。哇噢,还有许多命令行的开关可以过滤词语以及控制词语的频率。 网址: [github.com/thiderman/doge](https://github.com/thiderman/doge) ### 水族箱:ASCIIQuarium ![Asciiquarium](/data/attachment/album/201507/05/215544ggbqlxo95ggmo9jo.png) ASCIIQuarium是一个以ASCII码方式画出的水族馆/海洋动画。享受生活在您电脑中水底的奇妙生物吧。 想运行ASCIIQuarium,您需要安装Perl的curses包以及Term::Animation模块。请使用`sudo apt-get install libcurses-perl`来安装前者,使用sudo cpan Term::Animation来安装后者。两个命令都需要在终端中运行。 功能包括: * 五彩的鱼儿 * 有趣的动画,包括钓鱼钩 * 还有许多的天鹅、鸭子、海豚和船只 网址: [www.robobunny.com](http://www.robobunny.com/projects/asciiquarium/html/) ### 蒸汽机车:sl ![sl](/data/attachment/album/201507/05/215546t5w94nns5pu41p1z.png) sl是一个有趣的终端应用,它为那些意外的错将ls输成sl的用户显示一个动画。 我打字通常非常草率,更喜欢速度而不是准确性。但错别字在命令行中是非常危险的。因此sl扮演了一个提醒者,提醒我们注意错误输入的这种坏习惯。它总是会让人咯咯的笑。 功能包括: * 使用 -F, 火车在飞翔 * 使用 -l, 显示一个小型的火车 * 使用 -a, 看上去发生了意外 网址: [github.com/mtoyoda/sl](https://github.com/mtoyoda/sl) ### 火焰:aafire ![aafire](/data/attachment/album/201507/05/215549aaapin55fpipzief.png) aafire在终端中显示燃烧的ASCII火焰。它展示了aalib库的强大能力,一个ascii艺术库显示出来。 网址: [aa-project.sourceforge.net/aalib](http://aa-project.sourceforge.net/aalib/) ### 矩阵:CMatrix ![CMatrix](/data/attachment/album/201507/05/215556che7k8mz1gkmgts1.png) CMatrix是一个基于ncurses的程序,它模拟《黑客帝国》(一部电影)中的画面。如果您在一个山洞里度过了上个15年,那么您可能不知道这部1999年的美国科幻电影,主角为 Keanu Reeves, Laurence Fishburne, Carrie-Anne Moss, Hugo Weaving和 Joe Pantoliano。 它可以在终端设置为132x300的情况下工作,并且可以以同样的速率进行滚动或者以用户定义的速度进行异步的滚动。 功能包括: * 修改文本颜色 * 使用粗体字符 * 异步滚动 * 使用老式的滚动效果 * 屏幕保护程序模式 网址: [www.asty.org/cmatrix](http://www.asty.org/cmatrix/) --- via: <http://www.linuxlinks.com/article/20150614112018846/Humor.html> 译者:[wwy-hust](https://github.com/wwy-hust) 校对:[Caroline](https://github.com/carolinewuyan) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,764
如何用Perl访问SQLite数据库
http://xmodulo.com/access-sqlite-database-perl.html
2015-07-06T10:04:00
[ "SQLite", "Perl" ]
https://linux.cn/article-5764-1.html
SQLite是一个零配置、无服务端、基于文件的事务型数据库系统。由于它的轻量级,自包含和紧凑的设计,所以当你想要集成数据库到你的程序中时,SQLite是一个非常不错的选择。在这篇文章中,我会展示如何用Perl脚本来创建和访问SQLite数据库。我演示的Perl代码片段是完整的,所以你可以很简单地修改并集成到你的项目中。 ![](/data/attachment/album/201507/05/220606jrfr4gjrrmrz1cjr.jpg) ### 访问SQLite的准备 我会使用SQLite DBI Perl驱动来连接到SQLite3。因此你需要在Linux中安装它(和SQLite3一起)。 **Debian、 Ubuntu 或者 Linux Mint** ``` $ sudo apt-get install sqlite3 libdbd-sqlite3-perl ``` **CentOS、 Fedora 或者 RHEL** ``` $ sudo yum install sqlite perl-DBD-SQLite ``` 安装后,你可以检查SQLite驱动可以通过下面的脚本访问到。 ``` #!/usr/bin/perl my @drv = DBI->available_drivers(); print join("\n", @drv), "\n"; ``` 如果你运行脚本,你应该会看见下面的输出。 ``` DBM ExampleP File Gofer Proxy SQLite Sponge ``` ### Perl SQLite 访问示例 下面就是Perl访问SQLite的示例。这个Perl脚本会演示下面这些SQLite数据库的常规管理。 * 创建和连接SQLite数据库 * 在SQLite数据库中创建新表 * 在表中插入行 * 在表中搜索和迭代行 * 在表中更新行 * 在表中删除行 ``` use DBI; use strict; # 定义数据库名称和驱动 my $driver = "SQLite"; my $db_name = "xmodulo.db"; my $dbd = "DBI:$driver:dbname=$db_name"; # sqlite 没有用户名密码的概念 my $username = ""; my $password = ""; # 创建并连接到数据库 # 以下创建的文件名为 xmodulo.db my $dbh = DBI->connect($dbd, $username, $password, { RaiseError => 1 }) or die $DBI::errstr; print STDERR "Database opened successfully\n"; # 创建表 my $stmt = qq(CREATE TABLE IF NOT EXISTS NETWORK (ID INTEGER PRIMARY KEY AUTOINCREMENT, HOSTNAME TEXT NOT NULL, IPADDRESS INT NOT NULL, OS CHAR(50), CPULOAD REAL);); my $ret = $dbh->do($stmt); if($ret < 0) { print STDERR $DBI::errstr; } else { print STDERR "Table created successfully\n"; } # 插入三行到表中 $stmt = qq(INSERT INTO NETWORK (HOSTNAME,IPADDRESS,OS,CPULOAD) VALUES ('xmodulo', 16843009, 'Ubuntu 14.10', 0.0)); $ret = $dbh->do($stmt) or die $DBI::errstr; $stmt = qq(INSERT INTO NETWORK (HOSTNAME,IPADDRESS,OS,CPULOAD) VALUES ('bert', 16843010, 'CentOS 7', 0.0)); $ret = $dbh->do($stmt) or die $DBI::errstr; $stmt = qq(INSERT INTO NETWORK (HOSTNAME,IPADDRESS,OS,CPULOAD) VALUES ('puppy', 16843011, 'Ubuntu 14.10', 0.0)); $ret = $dbh->do($stmt) or die $DBI::errstr; # 在表中检索行 $stmt = qq(SELECT id, hostname, os, cpuload from NETWORK;); my $obj = $dbh->prepare($stmt); $ret = $obj->execute() or die $DBI::errstr; if($ret < 0) { print STDERR $DBI::errstr; } while(my @row = $obj->fetchrow_array()) { print "ID: ". $row[0] . "\n"; print "HOSTNAME: ". $row[1] ."\n"; print "OS: ". $row[2] ."\n"; print "CPULOAD: ". $row[3] ."\n\n"; } # 更新表中的某行 $stmt = qq(UPDATE NETWORK set CPULOAD = 50 where OS='Ubuntu 14.10';); $ret = $dbh->do($stmt) or die $DBI::errstr; if( $ret < 0 ) { print STDERR $DBI::errstr; } else { print STDERR "A total of $ret rows updated\n"; } # 从表中删除某行 $stmt = qq(DELETE from NETWORK where ID=2;); $ret = $dbh->do($stmt) or die $DBI::errstr; if($ret < 0) { print STDERR $DBI::errstr; } else { print STDERR "A total of $ret rows deleted\n"; } # 断开数据库连接 $dbh->disconnect(); print STDERR "Exit the database\n"; ``` 上面的Perl脚本运行成功后会创建一个叫“xmodulo.db”的数据库文件,并会有下面的输出。 ``` Database opened successfully Table created successfully ID: 1 HOSTNAME: xmodulo OS: Ubuntu 14.10 CPULOAD: 0 ID: 2 HOSTNAME: bert OS: CentOS 7 CPULOAD: 0 ID: 3 HOSTNAME: puppy OS: Ubuntu 14.10 CPULOAD: 0 A total of 2 rows updated A total of 1 rows deleted Exit the database ``` ### 错误定位 如果你尝试没有安装SQLite DBI驱动的情况下使用Perl访问SQLite的话,你会遇到下面的错误。你必须按开始说的安装DBI驱动。 ``` Can't locate DBI.pm in @INC (@INC contains: /usr/local/lib64/perl5 /usr/local/share/perl5 /usr/lib64/perl5/vendor_perl /usr/share/perl5/vendor_perl /usr/lib64/perl5 /usr/share/perl5 .) at ./script.pl line 3. BEGIN failed--compilation aborted at ./script.pl line 3. ``` --- via: <http://xmodulo.com/access-sqlite-database-perl.html> 作者:[Dan Nanni](http://xmodulo.com/author/nanni) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,765
watch:定期重复Linux / Unix命令
http://linoxide.com/linux-command/linux-watch-command/
2015-07-07T14:21:00
[ "watch", "重复" ]
/article-5765-1.html
服务器管理员需要维护系统并保持更新和安全。每天需要运行大量的指令。有些系统进程会记录日志。这些日志不断更新。为了检查这些更新,需要重复地执行命令。比如,为了读取一个日志文件需要使用head、tail、cat等命令。这些命令需要重复地执行。而watch命令可以用于定期地执行一个命令。 ![](/data/attachment/album/201507/05/222526uus5925dpb555xyr.jpg) ### Watch 命令 watch是一个简单的命令,只有几个选项。watch命令的基本语法是: ``` watch [-dhvt] [-n <seconds>] [--differences[=cumulative]] [--help] [--interval=<seconds>] [--no-title] [--version] <command> ``` watch命令默认每隔2秒执行后面参数给出的命令。这个时间根据的是命令执行结束到上次执行的间隔来算的。比如,watch命令可以用于监测日志更新,更新是在文件的后面追加新的内容,因此可以用tail命令来检测文件的更新(LCTT 译注:可以直接使用 `tail -f` 主动跟踪某个文件的更新,而不用使用 watch。)。这个命令会持续地运行直到你按下 `CTRL + C`回到提示符。 ### 例子 每两秒监测 errors/notices/warning 生成的情况。 ``` watch tail /var/log/messages ``` ![tail messages](/data/attachment/album/201507/05/222531dlij1jff48rrcasa.png) 按指定的时间间隔监测磁盘的使用率。 ``` watch df -h ``` ![df -h](/data/attachment/album/201507/05/222532en4m39mm3j029pgp.png) 对磁盘管理员而言,关注高I/O等待导致的磁盘操作尤其是mysql事务是很重要的。 ``` watch mysqladmin processlist ``` ![processlist](/data/attachment/album/201507/05/222532q2ipcghizkhejbe2.png) 监测服务器负载和运行时间。 ``` watch uptime ``` ![uptime](/data/attachment/album/201507/05/222533anujurflz34xljtx.png) 监测exim给用户发送通知的队列大小。 ``` watch exim -bpc ``` ![exim -bpc](/data/attachment/album/201507/05/222533qqzhh2xjaxzx753i.png) ### 1) 指定延迟 ``` watch [-n <seconds>] <command> ``` 命令默认运行的时间间隔可用-n改变,下面的命令会在5秒后运行后面的命令: ``` watch -n 5 date ``` ![date 5 seconds](/data/attachment/album/201507/05/222534wdn75q76050b27qc.png) ### 2) 连续输出比较 如果你使用-d选项,它会累次地高亮第一次和下一次命令之间输出的差别。 ``` watch [-d or --differences[=cumulative]] <command> ``` 例子 1,用下面的命令连续地输出时间并观察高亮出来的不同部分。 ``` watch -n 15 -d date ``` 第一次执行date的输出会被记录,15秒后会重复运行命令。 ![Difference A](/data/attachment/album/201507/05/222534eq5gi5lzleel4iel.png) 在下一次执行时,可以看到输出除了被高亮的秒数从14到29之外其他的都一样。 ![Difference A](/data/attachment/album/201507/05/222534x29d7mm2kcqypkwe.png) 例子 2,让我们来体验一下两个连续的“uptime”命令输出的不同。 ``` watch -n 20 -d uptime ``` ![uptime](/data/attachment/album/201507/05/222533anujurflz34xljtx.png) 现在列出了时间和3个负载快照之间的不同。 ![10b](/data/attachment/album/201507/05/222535gttvhlaffogk3kkz.png) ### 3) 不带标题输出 如果你不希望显示更多关于延迟和实际命令的信息可以使用-t选项。 ``` watch [-t | --no-title] <command> ``` 让我们看下下面例子命令的输出: ``` watch -t date ``` ![watch without title](/data/attachment/album/201507/05/222535fvv68ffrsvn8bc3y.png) ### Watch 帮助 可以在ssh中输入下面的命令来得到watch的简要帮助。 ``` watch -h [--help] ``` ![watch help](/data/attachment/album/201507/05/222536ud631kovem9mkd1d.png) ### Watch 版本 在ssh终端中运行下面的命令来检查watch的版本。 ``` watch -v [--version] ``` ![version](/data/attachment/album/201507/05/222536zp1uocco1mabxaec.png) **不足** 不幸的是,在终端大小调整时,屏幕不能在下次运行前重画。所有用--difference高亮的内容也会在更新时丢失。 ### 总结 watch对系统管理员而言是一个非常强大的工具,因为它可以用于监控、日志、运维、性能和系统运行时的吞吐量。人们可以非常简单地格式化和推延watch的输出。任何Linux命令/程序或脚本可以按照所需监测和连续输出。 --- via: <http://linoxide.com/linux-command/linux-watch-command/> 作者:[Aun Raza](http://linoxide.com/author/arunrz/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-command/linux-watch-command/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c60b0>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,766
在Ubuntu下安装Node.JS的不同方式
http://linoxide.com/ubuntu-how-to/setup-node-js-ubuntu-15-04-different-methods/
2015-07-08T07:31:00
[ "Node.JS" ]
/article-5766-1.html
如果你要在Ubuntu 15.04上安装Node.js的话,这篇教程对你来说肯定很重要。Node.js从本质上来说就是一个运行在服务端上的封装好了输入输出流的javascript程序。Node.js巧妙的使用单线程的事件循环来处理高吞吐量和非阻塞IO。同时它也是一个提供了通过操作系统读写文件和网络操作功能的平台层。所以这篇文章将展示在Ubuntu 15.04 server上不同的安装Node.Js的方式。 ![](/data/attachment/album/201507/05/233616rf2861f2qqkr1qli.jpg) ### 安装Node.JS 的方法 有许多安装Node.JS的不同的方法,我们可以选择其一。通过本篇文章我们将手把手带着你在Ubuntu 15.04上安装Node.Js,在此之前请卸载旧版本的包以免发生包冲突。 * 从源代码安装Node.JS * 用包管理器安装Node.JS * 从Github远程库安装Node.JS * 用NVM安装Node.JS ### 1) 从源代码安装Node.JS 让我们开始从源代码安装Node.JS之前,请确认系统上的所有的依赖包都已经更新到最新版本。然后跟着以下步骤来开始安装: #### 步骤1: 升级系统 用以下命令来升级系统,并且安装一些Node.JS必要的包。 ``` root@ubuntu-15:~# apt-get update root@ubuntu-15:~# apt-get install python gcc make g++ ``` #### 步骤2: 获取Node.JS的源代码 安装好依赖包之后我们可以从官方网站上下载Node.JS的源代码。下载以及解压的命令如下: ``` root@ubuntu-15:~# wget http://nodejs.org/dist/v0.12.4/node-v0.12.4.tar.gz root@ubuntu-15:~# tar zxvf node-v0.12.4.tar.gz ``` #### 步骤3: 开始安装 现在我们进入源代码的目录,然后运行.configure文件 ![NodeJS Configure](/data/attachment/album/201507/05/233620ojdeix8wriooehmi.png) ``` root@ubuntu-15:~# ls node-v0.12.4 node-v0.12.4.tar.gz root@ubuntu-15:~# cd node-v0.12.4/ root@ubuntu-15:~/node-v0.12.4# ./configure root@ubuntu-15:~/node-v0.12.4# make install ``` #### 安装后测试 只要运行一下上面的命令就顺利安装好了Node.JS,现在我们来确认一下版本信息和测试以下Node.JS是否可以运行输出。 ``` root@ubuntu-15:~/node-v0.12.4# node -v v0.12.4 ``` ![Node.Js Test](/data/attachment/album/201507/05/233621qty6vzv3ufhttmjf.png) 创建一个以.js为扩展名的文件然后用Node的命令运行 ``` root@ubuntu-15:~/node-v0.12.4# touch helo_test.js root@ubuntu-15:~/node-v0.12.4# vim helo_test.js console.log('Hello World'); ``` 现在我们用Node的命令运行文件 ``` root@ubuntu-15:~/node-v0.12.4# node helo_test.js Hello World ``` 输出的结果证明我们已经成功的在Ubuntu 15.04安装好了Node.JS,同时我们也能运行JavaScript文件。 ### 2) 利用包管理器安装Node.JS 在Ubuntu下用包管理器安装Node.JS是非常简单的,只要增加NodeSource的个人软件包档案(PPA)即可。 我们将下面通过PPA安装Node.JS。 #### 步骤1: 用curl获取源代码 在我们用curl获取源代码之前,我们必须先升级操作系统,然后用curl命令获取NodeSource添加到本地仓库。 ``` root@ubuntu-15:~#apt-get update root@ubuntu-15:~# curl -sL https://deb.nodesource.com/setup | sudo bash - ``` curl将运行以下任务 ``` ## Installing the NodeSource Node.js 0.10 repo... ## Populating apt-get cache... ## Confirming "vivid" is supported... ## Adding the NodeSource signing key to your keyring... ## Creating apt sources list file for the NodeSource Node.js 0.10 repo... ## Running `apt-get update` for you... Fetched 6,411 B in 5s (1,077 B/s) Reading package lists... Done ## Run `apt-get install nodejs` (as root) to install Node.js 0.10 and npm ``` #### 步骤2: 安装NodeJS和NPM 运行以上命令之后如果输出如上所示,我们可以用apt-get命令来安装NodeJS和NPM包。 ``` root@ubuntu-15:~# apt-get install nodejs ``` ![NodeJS Install](/data/attachment/album/201507/05/233622jtdaxzxdl0zjhhbs.png) #### 步骤3: 安装一些必备的工具 通过以下命令来安装编译安装一些我们必需的本地插件。 ``` root@ubuntu-15:~# apt-get install -y build-essential ``` #### 通过Node.JS Shell来测试 测试Node.JS的步骤与之前使用源代码安装相似,通过以下node命令来确认Node.JS是否完全安装好: ``` root@ubuntu-15:~# node > console.log('Node.js Installed Using Package Manager'); Node.js Installed Using Package Manager ``` --- ``` root@ubuntu-15:~# node > a = [1,2,3,4,5] [ 1, 2, 3, 4, 5 ] > typeof a 'object' > 5 + 2 7 > (^C again to quit) > root@ubuntu-15:~# ``` #### 使用NodeJS应用进行简单的测试 REPL是一个Node.js的shell,任何有效的JavaScript代码都能在REPL下运行通过。所以让我们看看在Node.JS下的REPL是什么样子吧。 ``` root@ubuntu-15:~# node > var repl = require("repl"); undefined > repl.start("> "); Press Enter and it will show out put like this: > { domain: null, _events: {}, _maxListeners: 10, useGlobal: false, ignoreUndefined: false, eval: [Function], inputStream: { _connecting: false, _handle: { fd: 0, writeQueueSize: 0, owner: [Circular], onread: [Function: onread], reading: true }, _readableState: { highWaterMark: 0, buffer: [], length: 0, pipes: null, ... ... ``` 以下是可以在REPL下使用的命令列表 ![REPL Manual](/data/attachment/album/201507/05/233623jk6dcv6mtxjt63j0.png) #### 使用NodeJS的包管理器 NPM是一个提供给node脚本持续生命力的命令行工具,它能通过package.json来安装和管理依赖包。最开始从初始化命令init开始 ``` root@ubuntu-15:~# npm init ``` ![NPM starting](/data/attachment/album/201507/05/233624q9admhyhy9gilamz.png) ### 3) 从Github远程库安装Node.JS 在这个方法中我们需要一些步骤来把Node.JS从Github的远程的仓库克隆到本地仓库目录 在开始克隆(clone)包到本地并且配制之前,我们要先安装以下依赖包 ``` root@ubuntu-15:~# apt-get install g++ curl make libssl-dev apache2-utils git-core ``` 现在我们开始用git命令克隆到本地并且转到配制目录 ``` root@ubuntu-15:~# git clone git://github.com/ry/node.git root@ubuntu-15:~# cd node/ ``` ![Git Clone NodeJS](/data/attachment/album/201507/05/233625jd44t0dd4dr1jf8y.png) clone仓库之后,通过运行.config命令来编译生成完整的安装包。 ``` root@ubuntu-15:~# ./configure ``` ![Configure Node](/data/attachment/album/201507/05/233625i38fz8xf8n92sxlp.png) 运行make install命令之后耐心等待几分钟,程序将会安装好Node.JS。 ``` root@ubuntu-15:~/node# make install root@ubuntu-15:~/node# node -v v0.13.0-pre ``` #### 测试Node.JS ``` root@ubuntu-15:~/node# node > a = [1,2,3,4,5,6,7] [ 1, 2, 3, 4, 5, 6, 7 ] > typeof a 'object' > 6 + 5 11 > (^C again to quit) > root@ubuntu-15:~/node# ``` ### 4) 通过NVM安装Node.JS 在最后一种方法中我们我们将用NVM来比较容易安装Node.JS。安装和配制Node.JS,这是最好的方法之一,它可以供我们选择要安装的版本。 在安装之前,请确认本机以前的安装包已经被卸载。 #### 步骤1: 安装依赖包 首先升级Ubuntu Server系统,然后安装以下安装Node.JS和使用NVM所要依赖的包。用curl命令从git上下载NVM到本地仓库: ``` root@ubuntu-15:~# apt-get install build-essential libssl-dev root@ubuntu-15:~# curl https://raw.githubusercontent.com/creationix/nvm/v0.16.1/install.sh | sh ``` ![NVM Curl](/data/attachment/album/201507/05/233626mu3y7uu33zung7x0.png) #### 步骤2: 修改Home环境 用curl从NVM下载必需的包到用户的home目录之后,我们需要修改bash的配置文件添加NVM,之后只要重新登录中断或者用如下命令更新即可。 ``` root@ubuntu-15:~# source ~/.profile ``` 现在我们可以用NVM来设置默认的NVM的版本,或者用如下命令来指定之前版本: ``` root@ubuntu-15:~# nvm ls root@ubuntu-15:~# nvm alias default 0.12.4 ``` ![NVM Default](/data/attachment/album/201507/05/233627kmti78dz5mip1pii.png) #### 步骤3: 使用NVM 我们已经通过NVM成功的安装了Node.JS,所以我们现在可以使用各种有用的命令。 ![NVM Manual](/data/attachment/album/201507/05/233627na52hkapktpakp55.png) ### 总结 现在我们已经准备好了在服务端安装Node.JS,你可以从我们说的四种方式中选择最合适你的方式在最新的Ubuntu 15.04上来安装Node.JS,安装好之后你就可以利用Node.JS来编写你的代码。 --- via: <http://linoxide.com/ubuntu-how-to/setup-node-js-ubuntu-15-04-different-methods/> 作者:[Kashif Siddique](http://linoxide.com/author/kashifs/) 译者:[NearTan](https://github.com/NearTan) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /ubuntu-how-to/setup-node-js-ubuntu-15-04-different-methods/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c6290>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,769
没有 Linus,Linux 的未来是什么样子?
http://www.linuxveda.com/2015/06/17/what-happens-to-linux-after-linus/
2015-07-07T08:00:00
[ "Linux" ]
https://linux.cn/article-5769-1.html
![](/data/attachment/album/201507/06/222131omf3r8jy03rqdfdj.jpg) 这次采访是《Linux For You》杂志在2007年进行的,现在我们发表在这里是为了存档的目的。 **Q:对于 Linux 内核,未来的计划/道路/提升是怎样的?** Linus:我从来没有太多的预见性 — 与其从宏大的计划上看未来,我倾向于从一个相对短的时间框架,比如“几个月之后的事情”。我是一个忠实的‘细节成败论’的信仰者,如果你抓住了细节,再大的问题也会大事化小,小事化无。 所以,对于五年后内核会是什么样,我真的没有任何远见 — 仅仅是希望我们能够持续专注于Linux的发展。实际上,对于我个人来说,我最担心的事情之一甚至不是技术问题,而是确保这个‘过程’正常,这样人们才可以相互协作好。 **Q:你怎么看 Linux 和 Solaris 之间的关系在未来的发展?它会如何使用户受益?** Linus:我并没有看到太多交叉的地方,除了我认为 Solaris 会使用更多的 Linux 用户空间工具(对我自己来说并没有太多关注这个,因为我真的只关心内核)。Linux 桌面比起传统 Solaris 桌面好多了,而且我希望 Solaris 移植越来越多的 Linux 的东西,朝着一个更加类 Linux 的模式前进。(LCTT 译注:时至今日,我们还需要讨论 Solaris 吗?/cry ,但是当时,整个开源社区确实期望接受 Solaris 一些遗产。) 从纯内核方面讲,许可证的存在意味着没有太多的合作空间,但是如果这种情况发生改变将会变得很有趣。Sun 已经声称将在 GPL(v2 或 v3)下授权 Solaris,如果这种许可证的差异消失,那么会导致一些有趣的技术出现。但对此,我持观望态度。 **Q:现在 GPL v3 已经完成并发布了,你是否预见有什么情况会鼓励你开始移植内核到 Solaris 上去?或者,从你的角度看,它是否很糟糕以至于你从来没考虑过它?** Linus:我觉得相比于早先的草稿,v3 有了很多提高,并且我也不认为它是一个糟糕的许可证。我只是认为它没有 GPLv2 一样‘伟大’。 所以,如果没有 GPLv2,我觉得自己将会使用 GPLv3。不过,既然我已经有了一个更好的选择,我为什么还要考虑它呢? 这就是说,我始终秉承实用主义精神,并且我认为“ GPLv3 不像 GPLv2 一样好”这件事并不是一个‘非黑即白’的问题。这就像是一个天平,如果 GPLv3 有了其他的优点作为砝码,很有可能那些优点会让我对 GPLv3 更偏爱一些。 恕我直言,我到现在还并没有看到任何优点,但是如果 Solaris 真的在 GPLv3 下发布,可能避免不必要的许可证不兼容性这一条就分量足够了,足以值得我们去尝试将 Linux 的内核重新在 GPLv3 许可证下发布。不过,请不要误解,我认为这是不大可能的。但是我确实想澄清我本质上并不是一个许可证偏执者。我认为 GPLv2 是毫无疑问的好许可证,但是许可证并不是一切。(LCTT 译注:事实上,Solaris/OpenSolaris 最终也没采用 GPL 许可协议发布,而 2010年之后,已经没有什么动静了。而 Linux 内核最终也没有更换到 GPLv3 上。) 总的来说,我使用很多其他许可证下的程序。我可能没有把任何一个我自己做的项目放在 BSD(或 X11—MIT)许可证下,但是我认为它是一个伟大的许可证,对于其他项目来说,它可能是最佳的选择。 **Q:目前有没有任何你想特别提出作为 Linux 内核的关键贡献者的印度人?** (LCTT 译注:本篇访谈中提到多次印度,是因为访谈者是印度人。) Linus:我不得不承认,我并没有与来自印度的任何人直接合作过,尽管我已经非常有意识地努力建立一个规模庞大的内核开发团队,这样我不用总是独自工作。 我相信大多数人的社交基本上是受限制的,只对很少的人十分了解(比如你最亲近的家人和朋友),我也努力构造这样一个开发模型来改变这种状况:通过一个‘开发者网络’,人们可以在此互动,可能是与一批你信任的人,而且那些人反过来与他们信任的一群人互动。 所以,我偶然会与上百个发给我一两个不确定的补丁的开发者联系。我试着去建立一些由我熟知的人组成的小团体,我认为那就是人们工作的方式,当然也是我喜欢工作的方式。 同时,坦白地说,我甚至不知道许多与我一起工作的人生活在哪里。地理位置成了十分次要的东西。所以我很确信与我工作最紧密的前10—15个人中,没有印度的,可能这话稍后传到公众耳里,然后被指出确实有一些人来自那里! **Q:因为 Linux 的内核开发对你依赖如此严重,你如何计划组织或重组,让它在没有你的情况下继续发展,假设你决定花更多的时间在你自己的生活和家庭上面的话?** Linus:现在 Linux 比我重要得多,为了今天这一步我已经工作了很长时间。是的,我仍然十分密切地参与其中,而且我对其有着想当大的日常影响,我最终会是这样一个人——在某种程度上,扮演着许多内核开发活跃者的中心;但是,我不会说 Linux “严重依赖”于我。 所以,如果我得了心脏病并且明天就死了(很高兴没这种可能:我显然在任何方面都很健康),人们肯定会注意到,但是有成千上万的人为内核工作,并且不止一两个人能够毫无困难地接替我的角色。 **Q:印度是软件工程师的主要产地之一,但是我们没有在 Linux 领域做太多贡献。你觉得为什么印度人没有积极参与Linux?如果我们鼓励印度人参与并为 Linux 做更大的贡献,你觉得如何?你会乐意用你个人作为榜样激励印度工程师吗?** Linus:对我来说,这确实是一个不好回答的问题。参与开源取决于两方面的基础条件:信息流和文化(用你的话说是互联网和教育),我甚至不知道这其中哪个是最大的障碍。 在很多方面,至少在那些印度讲英语文化的地方,参与 Linux 和其他开源项目是相对容易的,如果仅仅是由于语言门槛的话。这当然比起亚洲的许多地方,甚至欧洲的一些地方要容易些。 当然,这只是一些人,并不等同于印度的大部分群体,而且我自己关于印度的情况也知道不多,甚至没法不太负责的猜测最好的途径是什么。我猜一个热情的本地用户社区会是最好的途径,而且我猜测你们已经拥有这样的社区了。 至于我的‘偶像’形象,我自己不以为然。我不是一个伟大的公众演讲者,而且我最近些年已经避免出游,因为被看做符号化的‘偶像’让我很不自在。我就是一个工程师而已,而且我仅仅是喜欢我做的事情,并与社会上其他人一起工作。 **Q:什么样的理由会让你考虑去访问印度?** Linus:如前一个回答中提到,我十分讨厌公开演讲,所以我才想避免开会等等这些事。我更愿意某天去印度度个假,但是如果我这样做,我可能悄悄地干 — 出行之前不告诉任何人,仅仅作为一个游客去游览印度!(LCTT 译注:所以 Linus 不来中国的道理是同样的,除非在中国召开一次世界性的 LinuxCon。) **Q:最近你好像在抨击 Subversion 与 CVS,质问他们的架构基础。现在你已经从 Subversion 和 CVS 社区那里得到回应,你是否改变了看法,还是说并没有被说服?** Linus:因为我发现这个争论很有趣,所以我想做一个强硬的声明。换句话说,我确实‘喜欢’争论。并不是不经思考的,但是我确实想要让争论更热烈些,而不仅仅是完全的柏拉图式的。 做出强硬的争论有时会引来一个非常合理的反驳,然后我会很高兴地说:“噢,好吧,你是对的。” 但是话说回来,对 SVN/CVS 并不会发生这种情况。我怀疑很多人并不是真的很喜欢 CVS,所以我真的不觉得会有谁坚持认为 CVS 就是一切,而不是一个老旧系统。要是我知道之前就有人这样认为的话,我就不会那么不礼貌地反对 SVN(嘿,这么说没错 — 我真的不是一个非常礼貌的家伙!),我不相信任何人会认为 SVN 是‘好的’。 我认为,SVN 就是一个‘还好’的经典案例。人们过去经常使用 SVN,并且它也‘还好’地广泛使用,但是它的‘还好’就如 DOS 与 Windows 的‘还好’一样。不是什么伟大的技术,只是普遍适用而已,同时它对人们来说运行良好,看着十分熟悉。但是很少有人以此为傲,或者对其感到兴奋。 Git,从另外方面讲,其身后有一些‘UNIX 哲学’,这和 UNIX 无关。实质上,就像原始的 UNIX,在它身后有一个基本理念。对 UNIX 来说,最底层的哲学就是,“所有东西只是一个文件”。对 Git 来说,“则是每个东西只是内容寻址数据库中的一个对象”。 **Q:现在如此多的发行是好事还是坏事?选择是很有意思的,但是选择太多了就是干扰。相较于这么多的人每天花费数小时去构建成百上千的发行版,如果人们可以一起来支持少数的发行版,这样在企业级市场去挑战微软是不是更容易些呢?对此你怎么看?** Linus:我认为多个发行版是开源不可回避的部分。它会造成困惑吗?当然。它会变得低效率吗?是的。但是我喜欢拿它与政治比较:‘民主’也有那些令人困惑的选择,往往没有任何一个选择是你‘真正’想要的。而且有时候,如果你不需要操心选举、不同党派和联合等等方面的困惑的话,你可能会感觉事情更加容易一些,更有效率一些。 但是最后我想说,选择可能会导致低效率,但是它也让每个人至少保留了‘所谓的’诚信。我们可能都希望我们的政治家更诚信,我们也希望不同的发行版可以让我们有一天有其他的选择,而如果没有选择的话,事情可能会更糟。 **Q:为什么你觉得 CFS 比 SD 更好?** Linus:一部分原因是我与 Ingo [Molnar] 工作过很长一段时间,也就是说,我了解他,并且知道他会对发生的任何问题非常负责。那种品质是非常重要的。 但是一部分原因就简单的与用户有关,大多数人实际上表示 CFS 比 SD 好。包括许多 3D 游戏方面(这是人们声称 SD 最强的一点)。 尽管如此,我认为并不是任何一段代码都十分‘完美’。最好的情况是,想成为 SD 支持者的人会努力提高 SD,从而通过其它方式取得了平衡 — 而我们会保持两个阵营都尝试有趣的事情,因为内部的竞争会刺激他们。 **Q:在 Google 的一次关于 Git 的访谈中,有人问你如何将当前集中存放的超大代码库迁移到 git 上,而不用将开发工作停止六个月。你对此的回答是什么?** Linus:啊哈,那个问题我在现场没有听清楚(在录音里,问题会听得更清楚些),当我回头去听录制的音频,注意到了我没有回答他的问题,但是我觉得这问题他问过。 无论如何,我们确实有很多导入的工具,所以你实际上可以仅仅是将一个大的项目从任何其他的早期的 SCM (源代码控制系统)导入到 git 里,但问题显然不是经常以导入动作本身结束,而是需要‘习惯’这种新模式! 坦白来说,我认为关于如何‘习惯它’没有任何其他答案,而只能是去开始使用和尝试它。显然,你不会冒险率先导入你现有的最大、最重要的项目,那确实会导致工作停顿下来,然后使得每个人都很不高兴。 所以没有任何理智健全的人会拥护在一夜之间将一切移到 git 上去,并强迫人们改变他们的环境。是的,你需要从公司里的小项目开始,可能是一些由一个小组主要控制和维护的项目,然后开始转移其到 git。这是你能让人们习惯这种模式的方式,你应该以一个核心的组开始,他们知道 git 如何工作,如何在公司里面使用它。 接着,你就会铺展开来。并不需要一次到位。你会导入越来越多的项目 — 甚至是在你公司里采用‘单一大型仓库’模式;那个仓库基本上是作为许多模块的集合,因为让每个人去检查每件事不是一个可执行的工作模型(除非这个‘每件事’并不非常大)。 所以,你基本上只会一次转移一个模块,直到你发现使用 git 是如此酸爽,这时你可以移植余下的所有(或者‘余下’的太旧了,没有人用了)。 git 最赞的一个功能是,它实际上可以同很多其他 SCM 相处很好。很多 git 用户使用它的时候,与他们一起工作的人并没有发现,因为他们看到 git 的结果,会联想到一些传统的 SCM 上去。 **Q:Linux 用了你在 Transmeta(全美达)上实现备用指令集的经验吗?[Transmeta Crusoe 芯片看起来像一个非常轻量级的 CPU — 记得有一台 Burroughs B1000 解释器,它实际上实现了多个虚拟机。有的用于系统软件,有的用于 Cobol,还有的用于 Fortran;如果没错的话,那么人们可以在芯片上实现 Burroughs 6/7000 或者 HP3000 类似的堆栈架构,或适用于 JVM 的指令集,等等。(LCTT 译注:Linus 于 1997-2003 期间就职于全美达)]** Linus:我们确实有一些备选的结构集合,不过我不打算谈论太多这个,我可以说的是我们已经做了一个混合结构集合的公开演示。我们有一个技术展示,在那里你同时可以跑 x86 指令和 Java 字节码(实际上,它是一个轻量的扩展 pico—java,iirc)。 我想我们展示的这个应用会在 Linux 上运行 DOOM,这里 Linux 的部分是一个完全标准 x86 发行版。但是 DOOM 的二进制程序是一个特定的编译版本,它实际上编译为 pico-java 代码。而 CPU 最终以相同的方式来运行它们——从 JIT 到原生 VLIW 指令集。 (选择 DOOM 的原因仅仅是其源代码可用,并且游戏的核心部分非常小,足以很容易拿它来做一个验证 — 而且它也显然看起来十分有趣。) 有更多的事情是在内部运作,但是我不能谈论他们。而且实际上,就我个人而言,对 Java 不怎么感冒。 **Q:386BSD 衍生了 NetBSD,FreeBSD 和 OpenBSD,在 Linux 出现之前已经发展不错了,但是 Linux 传播比 386BSD 及其衍生者更为广泛。这在多大程度上左右你对许可证的选择,这个选择的发展过程是怎样的?你不认为比起 GPLv2 来,是 GPLv3 创造了发展空间,迄今为止,让 Linux 比 BSD 变得更好?** Linus:我认为这不仅是一个许可证问题,也是一个社区及人格问题。BSD 的许可证总是鼓励分叉,但是这也意味着,如果某些人取得了成功并做了商业性的分叉,他并不需要将他的修改返回来。因此,哪怕实际上这种事情没有(而实际上,这种事情的确发生了,比如 BSDi),人们也难以建立彼此信任。 相比之下,GPLv2 也鼓励分叉,但是它不仅仅鼓励分叉出去,它也鼓励(并‘要求’)能够融合回来。所以,我们现在达到了新的层次的信任:你‘知道’每个人都被许可证所约束,所以每个人都不会占你便宜。 所以,在我看来,GPLv2 作为许可证来说,它允许人们在要求总是回馈贡献的前提下,在另外的方面取得了最大可能的自由。没有人能阻止你对源代码的改进。 那么,BSD 许可证是更‘自由’的吗?是的,毫无疑问。但是我不会在我在意的任何项目里面使用 BSD 许可证,因为我不仅仅想要自由,我也想要信任,可以让我总是能使用其他人为我的项目所写的代码。 所以对于我来说,GPLv2 最终在‘尽可能自由’上取得了完美的平衡,这样,我们做到了让每个人都能信任,他们总是可以取得源代码并使用它。 这就是为什么我认为 GPLv3 最终并没多大意思,它不再是那种‘返回源代码’的信任;它退化成了‘我写了这些代码,所以我能控制你如何使用它’。 换言之,我只是觉得 GPLv3 太狭隘和自私了。我认为 GPLv2 在‘自由’和‘信任’之间取得伟大的平衡。它不如 BSD 许可证自由,但是它让你安心回馈,而且它符合我认为的‘以德报德’:我给你源代码,你也回馈我源代码。 而 GPLv3 试着控制源代码的‘使用’。现在它就是“我给你我的源代码,如果你使用它的话,你就准备好让我对你的设备动手动脚吧”,看见了没?在我看来,不但小气,而且小心眼。 **Q:-rt 代码树的功能正在缓慢而稳定地逐渐集成到主线代码中。你对将剩余的 -rt 树合并到主线代码的看法是什么?(我说的不是 CFS)** Linus: 我不能保证来自 -rt 的一切‘都’会被合并进入标准内核(有一些部分肯定不适合常规的内核),不过是的,这些年来我们实际上将它的大部分都集成进去了,剩下的部分最终以后也会合并进去。 我提倡高效工作,但是我同时也很保守。我退回了一些激进的合并请求,只是因为我需要确保它们对我们所有人都有意义,不仅仅是用于极端情况下的实时环境,而且也对并不需要这种环境的‘普通’用户有用。这解释了为什么这个过程相当缓慢却稳定不断地合并代码,因为它需要足够稳定和有意义。 顺便说一句,这不仅仅是针对 -rt ,它也出现在许多开发中。-rt 出现这种情况是因为它是更‘直接’的内核项目,而且也是因为它的一个主要开发者直接参与到了常规内核开发。通常其它功能的迁移(安全、虚拟内核变化、虚拟化,等等)也遵循类似的方式:他们针对特定的环境进行开发,然后这些功能片段缓慢而稳步地合并到标准内核。 **Q:我对 Linux 内核所支持的文件系统发展很感兴趣。你觉得 Reiser4、XFS4、ZFS 以及 Oracle 的新项目哪个更有前途?这些天 ZFS 有不少新闻,Reiser4 也发布了很不错的性能基准测试,XFS4 正紧随其后,而 Oracle 发布的那个也有很多像 Sun 的 ZFS 一样的特性。我们将走向何方呢?以你的观点来看,哪个文件系统更有前途?** Linus: 实际上,就在昨天我们发现了一个 git 的性能问题,有一个用户发现他采用 ZFS 要比 UFS 慢一个数量级(不是在 Linux 下,git 已经得到了许多关注,甚至是来自内核开发团队之外)。所以,我认为许多‘新文件系统’的拥护者部分原因是因为他们了解到旧文件系统的不足,然后(有点不切实际地)期望一个‘崭新的、改进的’文件系统能使一切都完美。 最后,这是一个永无止境的领域,看看谁是最终的赢家——也许并不需要(看起来不需要)一个赢家。几乎总是这样,对文件系统的选择最终取决于负载和环境。 相比你提到的这些文件系统,我个人对基于闪存的硬盘很快就可以供甚至是‘普通’用户使用的这个事实更感到兴奋。当然,它们仍然很昂贵(而且相当的小),但是基于闪存的存储和传统硬盘的性能完全不可同日而语,我怀疑它们最终将对文件系统的设计有巨大的影响。而现在,多数文件系统的设计都是在考虑如何处理硬盘延迟。 **Q:操作系统变得越来越不重要。你说过好几次用户根本不应该‘看见’操作系统。应用更为重要。基于浏览器的应用,如 Google 的办公软件影响力越来越大。你认为操作系统将走向何方?** Linus:我并不真的认可‘浏览器 OS’,因为我认为人们总是需要在本地做一些事情。也许是因为安全,或者仅仅是因为隐私的原因。而且即便当到处可以接入时,它也并不是‘无处不在’。 所以我认为,整个‘Web OS’这件事有一部分是真实的,但是另外一部分人们也许忘记了操作系统已经存在了几十年,它已经相当稳定,而且它的发展是有目共睹的。人们真的不应该期望操作系统有魔法般的变化,现在已经不是操作系统刚刚起步的六十年代,甚至连硬件也和过去完全不同了! 所以,别指望一场革命。我认为操作系统将在很大程度上继续它们所擅长的,当然,我们也会进步,但是我不认为会从根本上改变。也许会发生巨变的是界面和操作系统顶层的那些东西(当然,操作系统下面的硬件也会继续进步),这显然才是人们所关心的。 至于操作系统?它显然是应该尽可能隐藏起来的东西。你真的不应该在意它,除非你特别想知道在机器里面真正在发生什么。 **Q:最近我听说你正在使用一台 PPC G4/5 作为个人计算机,你使用它来做什么?为什么呢?** Linus:我最终放弃了那台 PowerPC,因为没有人能在这台工作站上做到更多,特别是,自从 x86-64 开始变得越来越强大了。所以这些天,我在用一台标准的 PC,里面是一个普通的 Core 2 Duo CPU。 在其它架构下运行是非常有趣的(alpha 作为我的主要架构运行了好几年,所以这并不是第一次),但是这种 CPU 得当成商品买得到才行。我认为,唯一能取代 x86 架构的,也许未来十年并不需要使用 x86 作为主要架构,我认为或许是 ARM,这得益于移动设备市场的发展。 **Q:Linux 对你意味着什么?一种业余爱好、哲学、人生意义、工作、最好的操作系统,还是什么?** Linus:它是所有的这一切。它是爱好,而且是具有深刻意义的爱好。最好的爱好是你‘真的’非常在意它。这些日子里,它显然也是我的工作,我非常高兴工作和兴趣能合二为一。 我不了解所谓的‘哲学’,我并不真的是因为深层次的道德或哲学的原因才做的 Linux,但是可以肯定的是,对开源的深层思考是我非常重视的。所以我并不是因为什么明确的理由做 Linux,也不能说是它在激励我,但是我的确在思考开源是如何工作。 **Q:微软的‘黑衣人’有没有和你交谈过?** Linus:我从来没有真正和微软交谈过,没有。我偶尔会和一些微软的人出现再同一个会议上(我比以前参加的会议更多了),但是我从来和他们没有任何关系。我认为彼此都很谨慎吧。 --- via: <http://www.linuxveda.com/2015/06/17/what-happens-to-linux-after-linus/> 作者:[Swapnil Bhartiya](http://www.linuxveda.com/author/arnieswap/) 译者:[wi-cuckoo](https://github.com/wi-cuckoo),[wxy](https://github.com/wxy) 校对:mahua, [wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,777
Linux 下如何处理包含空格和特殊字符的文件名
http://www.tecmint.com/manage-linux-filenames-with-special-characters/
2015-07-08T07:47:00
[ "shell", "文件名", "特殊字符" ]
https://linux.cn/article-5777-1.html
我们经常会看到文件名和文件夹名。大多数时候文件/文件夹的名字和内容相关并以数字和字母开头。字母加数字的文件名最常见,应用也很广泛,但总会需要处理一些包含特殊字符的文件名/文件夹名。 **注意**:我们可能有各种类型的文件,但是为了简单以及方便实现,在本文中我们只用文本文件(.txt)做演示。 ![](/data/attachment/album/201507/07/225132g0xgyr2gvr0gy0y7.jpg) 最常见的文件名例子: ``` abc.txt avi.txt debian.txt ... ``` 数字文件名例子: ``` 121.txt 3221.txt 674659.txt ... ``` 字母数字文件名例子: ``` eg84235.txt 3kf43nl2.txt 2323ddw.txt ... ``` 包含特殊字符的文件名的例子,并不常见: ``` #232.txt #bkf.txt #bjsd3469.txt #121nkfd.txt -2232.txt -fbjdew.txt -gi32kj.txt --321.txt --bk34.txt ... ``` 一个显而易见的问题是 - 在这个星球上有谁会创建和处理包含井号`(#)`,分号`(;)`,破折号`(-)`或其他特殊字符的文件/文件夹啊。 我和你想的一样,这种文件名确实不常见,不过在你必须得处理这种文件名的时候你的 shell 也不应该出错或罢工。而且技术上来说,Linux 下的一切比如文件夹、驱动器或其他所有的都被当作文件处理。 ### 处理名字包含破折号(-)的文件 创建以破折号`(-)`开头的文件,比如 -abx.txt。 ``` $ touch -abc.txt ``` #### 测试输出 ``` touch: invalid option -- 'b' Try 'touch --help' for more information. ``` 出现上面错误的原因是,shell 把破折号`(-)`之后的内容认作参数了,而很明显没有这样的参数,所以报错。 要解决这个问题,我们得告诉 Bash shell(是的,这里以及本文后面的大多数例子都是基于 BASH 环境)不要将特殊字符(这里是破折号)后的字符解释为参数。 有两种方法解决这个错误: ``` $ touch -- -abc.txt [方法 #1] $ touch ./-abc.txt [方法 #2] ``` 你可以通过运行命令 ls 或 [ls -l](/article-5349-1.html) 列出详细信息来检查通过上面两种方式创建的文件。 ``` $ ls -l total 0 -rw-r--r-- 1 avi avi 0 Jun 8 11:05 -abc.txt ``` 要编辑上述文件可以这样: ``` $ nano -- -abc.txt 或者 $ nano ./-abc.txt ``` **注意**:你可以将 nano 替换为任何其他你喜欢的编辑器比如说 vim: ``` $ vim -- -abc.txt 或者 $ vim ./-abc.txt ``` 如果只是简单地移动文件可以这样: ``` $ mv -- -abc.txt -a.txt 或者 $ mv -- -a.txt -abc.txt ``` 删除这种文件,可以这样: ``` $ rm -- -abc.txt 或者 $ rm ./-abc.txt ``` 如果一个目录下有大量这种名字包含破折号的文件,要一次全部删除的话,可以这样: ``` $ rm ./-* ``` **重要:** 1. 上面讨论的规则可以同样应用于名字中包含任意数量以及任意位置的连接符号的文件。就是说,-a-b-c.txt,ab-c.txt,abc-.txt,等等。 2. 上面讨论的规则可以同样应用于名字中包含任意数量以及任意位置连接符号的文件夹,除了一种情况,在删除一个文件夹的时候你得这样使用`rm -rf`: $ rm -rf -- -abc 或者 $ rm -rf ./-abc ### 处理名字包含井号(#)的文件 符号`#`在 BASH 里有非常特别的含义。`#`之后的一切都会被认为是评论,因此会被 BASH 忽略。 **通过例子来加深理解:** 创建一个名字是 #abc.txt 的文件: ``` $ touch #abc.txt ``` #### 测试输出 ``` touch: missing file operand Try 'touch --help' for more information. ``` 出现上面错误的原因是,BASH 将 #abc.txt 解释为评论而忽略了。所以[命令 touch](http://www.tecmint.com/8-pratical-examples-of-linux-touch-command/)没有收到任何文件作为参数,所以导致这个错误。 要解决这个问题,你可能需要告诉 BASH 不要将 # 解释为评论。 ``` $ touch ./#abc.txt 或者 $ touch '#abc.txt' ``` 检查刚创建的文件: ``` $ ls -l total 0 -rw-r--r-- 1 avi avi 0 Jun 8 12:14 #abc.txt ``` 现在创建名字中除了开头的其他地方包含 # 的文件。 ``` $ touch ./a#bc.txt $ touch ./abc#.txt 或者 $ touch 'a#bc.txt' $ touch 'abc#.txt' ``` 运行 ‘ls -l‘ 来检查: ``` $ ls -l total 0 -rw-r--r-- 1 avi avi 0 Jun 8 12:16 a#bc.txt -rw-r--r-- 1 avi avi 0 Jun 8 12:16 abc#.txt ``` 如果同时创建两个文件(比如 a 和 #bc)会怎么样: ``` $ touch a.txt #bc.txt ``` 检查刚创建的文件: ``` $ ls -l total 0 -rw-r--r-- 1 avi avi 0 Jun 8 12:18 a.txt ``` 很明显上面的例子中只创建了文件 `a` 而文件 `#bc` 被忽略了。对于上面的情况我们可以这样做, ``` $ touch a.txt ./#bc.txt 或者 $ touch a.txt '#bc.txt' ``` 检查一下: ``` $ ls -l total 0 -rw-r--r-- 1 avi avi 0 Jun 8 12:20 a.txt -rw-r--r-- 1 avi avi 0 Jun 8 12:20 #bc.txt ``` 可以这样移动文件: ``` $ mv ./#bc.txt ./#cd.txt 或者 $ mv '#bc.txt' '#cd.txt' ``` 这样拷贝: ``` $ cp ./#cd.txt ./#de.txt 或者 $ cp '#cd.txt' '#de.txt' ``` 可以使用你喜欢的编辑器来编辑文件: ``` $ vi ./#cd.txt 或者 $ vi '#cd.txt' $ nano ./#cd.txt 或者 $ nano '#cd.txt' ``` 这样删除: ``` $ rm ./#bc.txt 或者 $ rm '#bc.txt' ``` 要删除所有以井号(#)开头的文件,可以这样: ``` # rm ./#* ``` ### 处理名字包含分号(;)的文件 如果你还不知道的话,分号在 BASH 里起到命令分隔的作用,其他 shell 可能也是一样的。分号作为分隔符可以让你一次执行几个命令。你碰到过名字包含分号的文件吗?如果没有的话,这里有例子。 创建一个名字包含分号的文件。 ``` $ touch ;abc.txt ``` #### 测试输出 ``` touch: missing file operand Try 'touch --help' for more information. bash: abc.txt: command not found ``` 出现上面错误的原因是,在运行上面命令的时候 BASH 会把 touch 解释为一个命令但是在分号前没有任何文件参数,所以报告错误。然后报告的另一个错误找不到命令 `abc.txt`,只是因为在分号后 BASH 会期望另一个新的命令,而 `abc.txt` 并不是一个命令。 要解决这个问题,我们得告诉 BASH 不要将分号解释为命令分隔符,例如: ``` $ touch ./';abc.txt' 或者 $ touch ';abc.txt' ``` **注意**:我们将文件名用单引号 '' 包含起来。这样可以告诉 BASH 分号 ; 是文件名的一部分而不是命令分隔符。 对名字包含分号的文件和文件夹的其他操作(就是,拷贝、移动、删除)可以直接将名字用单引号包含起来就好了。 ### 处理名字包含其他特殊字符的文件/文件夹 #### 文件名包含加号 (+) 不需要任何特殊处理,按平时的方式做就好了,比如下面测试的文件名。 ``` $ touch +12.txt ``` #### 文件名包含美元符 ($) 你需要将文件名用单引号括起来,像处理分号那样的方式。然后就很简单了。 ``` $ touch '$12.txt' ``` #### 文件名包含百分号 (%) 不需要任何特殊处理,当作一个普通文件就可以了。 ``` $ touch %12.txt ``` #### 文件名包含星号 (\*) 需要用单引号括起来或使用反斜杠转义。(LCTT 译注:此处原文有误,已修改。) ``` $ touch *12.txt ``` 注意:当你需要删除星号开头的文件时,千万不要用类似下面的命令。 ``` $ rm * 或者 $ rm -rf * ``` 而是用这样的命令,(LCTT 译注:此处原文有误,已修改) ``` $ rm ./'*.txt' ``` #### 文件名包含叹号 (!) 只要将文件名用单引号括起来,其他的就一样了。 ``` $ touch '!12.txt' ``` #### 文件名包含小老鼠 (@) 没有什么特别的,可以将名字包含小老鼠的文件当作普通文件。 ``` $ touch '@12.txt' ``` #### 文件名包含 ^ 不需要特殊处理。可以将名字包含 ^ 的文件当作普通文件。 ``` $ touch ^12.txt ``` #### 文件名包含 (&) 将文件名用单引号括起来,然后就可以操作了。 ``` $ touch '&12.txt' ``` #### 文件名包含括号 () 如果文件名包含括号,你需要将文件名用单引号括起来。 ``` $ touch '(12.txt)' ``` #### 文件名包含花括号 {} 用单引号括起来或使用反斜杠转义。(LCTT 译注:此处原文有误,已修改) ``` $ touch '{12.txt}' ``` #### 文件名包含尖括号 <> 名字包含尖括号的文件需要用单引号括起来。 ``` $ touch '<12.txt>' ``` #### 文件名包含方括号 [ ] 用单引号括起来或使用反斜杠转义。(LCTT 译注:此处原文有误,已修改) ``` $ touch '[12.txt]' ``` #### 文件名包含下划线 (\_) 这个非常普遍,不需要特殊对待。当作普通文件随意处理。 ``` $ touch _12.txt ``` #### 文件名包含等号 (=) 用单引号括起来或使用反斜杠转义。(LCTT 译注:此处原文有误,已修改) ``` $ touch '=12.txt' ``` #### 处理反斜杠 () 反斜杠会告诉 shell 忽略后面字符的特殊含义。你必须将文件名用单引号括起来,就像处理分号那样。其他的就没什么了。 ``` $ touch '\12.txt' ``` #### 包含斜杠的特殊情形 除非你的文件系统有问题,否则你不能创建名字包含斜杠的文件。没办法转义斜杠。 所以如果你能创建类似 ‘/12.txt’ 或者 ‘b/c.txt’ 这样的文件,那要么你的文件系统有问题,或者支持 Unicode,这样你可以创建包含斜杠的文件。只是这样并不是真的斜杠,而是一个看起来像斜杠的 Unicode 字符。 #### 文件名包含问号 (?) 用单引号括起来或使用反斜杠转义。(LCTT 译注:此处原文有误,已修改) ``` $ touch '?12.txt' ``` #### 文件名包含点 (.) 在 Linux 里以点 `(.)` 开头的文件非常特别,被称为点文件。它们通常是隐藏的配置文件或系统文件。你需要使用 ls 命令的 ‘-a‘ 或 ‘-A‘ 开关来查看这种文件。 创建,编辑,重命名和删除这种文件很直接。 ``` $ touch .12.txt ``` 注意:在 Linux 里你可能碰到名字包含许多点 `(.)` 的文件。不像其他操作系统,文件名里的点并不意味着分隔名字和扩展后缀。你可以创建名字包含多个点的文件: ``` $ touch 1.2.3.4.5.6.7.8.9.10.txt ``` 检查一下: ``` $ ls -l total 0 -rw-r--r-- 1 avi avi 0 Jun 8 14:32 1.2.3.4.5.6.7.8.9.10.txt ``` #### 文件名包含逗号 (,) 你可以在文件名中使用逗号,可以有任意多个而不用特殊对待。就像平时普通名字文件那样处理。 ``` $ touch ,12.txt 或者 $ touch ,12,.txt ``` #### 文件名包含冒号 (:) 用单引号括起来或使用反斜杠转义。(LCTT 译注:此处原文有误,已修改) ``` $ touch ':12.txt' 或者 $ touch ':12:.txt' ``` #### 文件名包含引号(单引号和双引号) 要在文件名里使用引号,我们需要使用交替规则。例如,如果你需要在文件名里使用单引号,那就用双引号把文件名括起来。而如果你需要在文件名里使用双引号,那就用单引号把文件名括起来。(LCTT 译注:或者如果单引号和双引号混杂的情况,你也可以用反斜杠转义。) ``` $ touch "15'.txt" 以及 $ touch '15".txt' ``` #### 文件名包含波浪号 (~) Linux 下一些像 emacs 这样的文本编辑器在编辑文件的时候会创建备份文件。这个备份文件的名字是在原文件名后面附加一个波浪号。你可以在文件名任意位置使用波浪号,例如: ``` $ touch ~1a.txt 或者 $touch 2b~.txt ``` #### 文件名包含空格 创建名字的字符/单词之间包含空格的文件,比如 “hi my name is avishek.txt”。 最好不要在文件名里使用空格,如果你必须要分隔可读的名字,可以使用下划线或横杠。不过,你还是需要创建这样的文件的话,你可以用反斜杠来转义下一个字符。要创建上面名字的文件可以这样做。 ``` $ touch hi\ my\ name\ is\ avishek.txt hi my name is avishek.txt ``` 我已经尝试覆盖你可能碰到的所有情况。上面大多数测试都在 BASH Shell 里完成,可能在其他 shell 下会有差异。 如果你觉得我遗漏了什么(这很正常也符合人性),请把你的建议发表到下面的评论里。保持联系,多评论。不要走开!求点赞求分享求扩散! --- via: <http://www.tecmint.com/manage-linux-filenames-with-special-characters/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[zpl1025](https://github.com/zpl1025) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,778
Tor浏览器:Linux下用于匿名Web浏览的终极浏览器
http://www.tecmint.com/tor-browser-for-anonymous-web-browsing/
2015-07-08T13:44:00
[ "Tor" ]
https://linux.cn/article-5778-1.html
我们大多数人都在上网方面花费很多时间。上网使用的应用程序主要是浏览器,更确切的说是一个Web浏览器。我们在网络上的大部分活动要以客户端/服务器的方式登录,这个过程会包括IP地址、地理信息、搜索、活动以及许多潜在的信息,这些信息如果以其他方式被故意使用,会存在潜在的危险性。 ![在Linux中安装Tor浏览器](/data/attachment/album/201507/07/234541bs1o18zhqs84qs6s.jpg) *Tor浏览器:匿名浏览器* 此外,美国国家安全局(NSA)这样的国际间谍机构会记录我们的数字足迹。更不必说受到控制的代理服务器也会被用来做为数据搜集服务器。并且大多数企业和公司不会允许您访问代理服务器(使您能保障自己的隐私)。 因此,我们需要的最好是一个小型、独立、可携带的应用程序,它能达到匿名的效果。Tor浏览器便是这样的一个应用,它拥有上面提到的所有功能,甚至不止于此。 这篇文章里我们会讨论Tor浏览器,它的功能、使用方式、领域、安装以及其他关于Tor浏览器的重要方面。 ### 什么是Tor浏览器? Tor是一个自由分发的应用软件,以BSD许可证发布,通过其安全可靠的洋葱式的结构,允许用户匿名的进行网络浏览。从前,由于它的结构和运作机制,Tor被称为‘洋葱路由器’。这个应用是由C语言写成的。 #### Tor浏览器的功能 * 跨平台可用。例如,这个应用程序在Linux、Windows和Mac下都可用。 * 在发送数据到因特网前进行复杂的数据加密。 * 在客户端进行数据自动解密。 * 它是火狐浏览器和Tor工程的结合。 * 对服务器和网站提供匿名性。 * 可以访问被限制的网站。 * 无需暴露源IP便可以执行任务。 * 可以将数据路由至/从防火墙后隐藏的服务和应用程序。 * 便携性 - 可以直接从USB存储棒上运行一个预配置的web浏览器。无需本地安装。 * 在x86和x86\_64平台均可用 * 可以配置为一个运行在“localhost”的“9050”端口上的“socks4a”代理来让FTP跑在Tor 上。 * Tor拥有处理上千的中继和上百万用户的能力。 #### Tor浏览器如何工作? Tor的工作方式基于洋葱路由的概念。洋葱路由的结构类似洋葱,它的每一层都嵌套在另一层里面,就像洋葱一样。这种嵌套的结构负责多次加密数据并将其通过虚拟电路进行发送。在客户端一侧每一层都在将他传递到下一层之前解密数据。最后一层在将原始数据传递到目的地前解密最里面一层的加密数据。 在这个过程里,这种解密整个层的功能设计的如此高明以至于无法追踪IP以及用户的地理位置,因此可以限制任何人观察您访问站点的网络连接。 所有这些过程看起来有些复杂,但用户使用Tor浏览器时没有必要担心。实际上,Tor浏览器的功能像其他浏览器一样(尤其是Mozilla的Firefox)。 ### 在Linux中安装Tor浏览器 就像上面讨论的一样,Tor浏览器在Linux和Windows以及Mac下都可用。用户需要根据系统和架构的不同在下面的链接处下载最新的版本(例如,Tor浏览器4.0.4)。 * <https://www.torproject.org/download/download-easy.html.en> 在下载Tor浏览器后,按说我们需要安装它,但是Tor的好处是我们不需要安装它。它能直接从随身设备中运行,并且该浏览器可以被预配置。这意味着插件和运行的特性可以完美的移植。 下载打包文件(\*.tar.xz)后我们需要解压它。 **32位系统** ``` $ wget https://www.torproject.org/dist/torbrowser/4.0.4/tor-browser-linux32-4.0.4_en-US.tar.xz $ tar xpvf tor-browser-linux32-4.0.4_en-US.tar.xz ``` **64位系统** ``` $ wget https://www.torproject.org/dist/torbrowser/4.0.4/tor-browser-linux64-4.0.4_en-US.tar.xz $ tar -xpvf tor-browser-linux64-4.0.4_en-US.tar.xz ``` **注意** : 在上面的命令中,我们使用‘$‘意味着这个压缩包应以普通用户而不是root用户来解压。我们强烈建议您不要以root用户解压和运行Tor浏览器。 ### 开始使用Tor浏览器 在成功的解压后,我们便可以将解压后的浏览器移动到任何地方/USB存储设备中。并从解压的文件夹以非root用户直接运行‘start-tor-browser’。 ``` $ cd tor-browser_en-US $ ./start-tor-browser ``` ![开始使用Tor浏览器](/data/attachment/album/201507/07/234544xpl36y5alhzv73w3.jpg) *开始使用Tor浏览器* #### 1. 尝试连接到Tor网络 点击“连接”之后Tor将按照设置帮您做剩下的事情。\*\* ![连接到Tor网络](/data/attachment/album/201507/07/234547q8w7oafmlf7cae8a.jpg) *连接到Tor网络* #### 2. 欢迎窗口/标签。 ![Tor欢迎界面](/data/attachment/album/201507/07/234552p6ln9huipw6ppk3w.png) *Tor欢迎界面* **3. 用Tor浏览器在Youtube上看视频** ![在Youtube上看视频](/data/attachment/album/201507/07/234556f5s4phu5si5izs1d.jpg) *在Youtube上看视频* #### 4. 打开银行网址以进行在线购物和交易 ![浏览银行站点](/data/attachment/album/201507/07/234601iodcooo363oxh8pd.jpg) *浏览银行站点* #### 5. 浏览器显示我当前的代理IP 注意其中的文字为“Proxy Server detected”。\*\* ![检查IP地址](/data/attachment/album/201507/07/234606cnqu00n70s0ns709.jpg) *检查IP地址* **注意**: 每次您想运行Tor时,您需要在文本模式上运行Tor启动脚本。并且该终端在您运行Tor时会一直被占用。如何克服这些,并创建一个桌面/Dock栏图标呢? #### 6. 我们需要在解压的文件夹中创建`tor.desktop` $ touch tor.desktop 接着使用您喜欢的编辑器编辑这个文件,加入下面的文本,这里我使用nano。 ``` $ nano tor.desktop ``` --- ``` #!/usr/bin/env xdg-open [Desktop Entry] Encoding=UTF-8 Name=Tor Comment=Anonymous Browse Type=Application Terminal=false Exec=/home/avi/Downloads/tor-browser_en-US/start-tor-browser Icon=/home/avi/Downloads/tor-browser_en-US/Browser/browser/icons/mozicon128.png StartupNotify=true Categories=Network;WebBrowser; ``` **注意**: 确保将上面的tor浏览器的路径替换为您的环境中的路径。 #### 7. 一旦搞定后,您就可以双击`tor.desktop`文件来运行Tor浏览器了 您可能需要在第一次运行时信任该文件。 ![Tor应用启动器](/data/attachment/album/201507/07/234609yw3z2ce3w72wc2ry.jpg) *Tor应用启动器* #### 8. 一旦您选择了信任,请注意`tor.desktop`文件的图标则会改变 ![Tor图标已改变](/data/attachment/album/201507/07/234611h2p4ecp8234x5444.jpg) *Tor图标已改变* #### 9. 您可以通过拖拽`tor.desktop`的图标在桌面和Dock栏中创建快捷方式 ![在桌面添加Tor快捷方式](/data/attachment/album/201507/07/234613ipr7aas7salrc0up.jpg) *在桌面添加Tor快捷方式* #### 10. 关于Tor浏览器 ![关于Tor浏览器](/data/attachment/album/201507/07/234618kv5bb1czvjcp8vjt.jpg) *关于Tor浏览器* **注意**: 如果您在使用旧版本的Tor,您可以从上面的窗口更新它。 #### 应用的可用性和领域 * 匿名使用网络。 * 浏览被封锁的页面。 * 连接其他应用,即(FTP)来保证网络安全的访问。 #### 关于Tor浏览器的争论 * 在Tor应用的边界上并没有什么安全措施。比如,数据入口点和出口点。 * 一项2011年的研究发现一种特殊的针对Tor浏览器的攻击可以得到BitTorrent用户的IP地址。 * 在一些研究中发现某些特定的协议有泄漏IP地址的倾向。 * 早些的Tor版本绑定了旧版本的Firefox浏览器,这被证明较易受JavaScript攻击。 * Tor浏览器运行起来比较慢。 #### 真实世界中Tor浏览器的实现 * [Vuze BitTorrent Client](http://www.tecmint.com/install-vuze-torrent-client-in-linux/) * Anonymous Os * Os’es from Scratch * whonix 等 #### Tor浏览器的未来 Tor浏览器是前途无量的。也许第一个该类应用程序的实现是非常出色的,但Tor浏览器必须加大对支持、伸缩性、以及对近期的攻击进行数据安全的研究的投入。这个应用程序是未来的需要。 #### 下载免费的电子书 非官方的Tor私密浏览指南: [![](/data/attachment/album/201507/07/234622wpzmhstts7ttbtmz.gif)](http://tecmint.tradepub.com/free/w_make129/prgm.cgi) ### 结论 如果您工作的部门不允许您访问某网站,或者如果您不希望别人知道您的私人事务,或您不想向NSA提供您的个人数字足迹,那么Tor浏览器在目前是必须的。 **注意**: Tor浏览器提供的安全性不能抵御病毒、木马或其他类似这样的安全威胁。写这篇文章的目的也不是希望通过在互联网上隐藏我们的身份来放纵非法活动。这篇文章纯粹是为了教学的目的,作者和Tecmint均不会为任何非法的使用负责。这是用户自己的责任。 Tor浏览器是一个非常不错的应用,您值得尝试!这就是我要说的全部了,我还会在这里写一些您感兴趣的文章,所以请继续关注。别忘了在留言区提供给我们您有价值的反馈。 --- via: <http://www.tecmint.com/tor-browser-for-anonymous-web-browsing/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[wwy-hust](https://github.com/wwy-hust) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,789
在 RHEL/CentOS 7.0 中安装 LAMP
http://www.tecmint.com/install-lamp-in-centos-7/
2015-07-10T07:48:00
[ "CentOS 7", "LAMP" ]
https://linux.cn/article-5789-1.html
跳过 LAMP 的介绍,因为我认为你们大多数已经知道了。这个教程会集中在如何在升级到 Apache 2.4 的 Red Hat Enterprise Linux 7.0 和 CentOS 7.0 中安装和配置 LAMP:Linux、Apache、 MariaDB、 PHP/PhpMyAdmin。 ![Install LAMP in CentOS 7](/data/attachment/album/201507/09/235139hp3a3uac3ktkoadu.jpg) *在 RHEL/CentOS 7.0 中安装 LAMP* #### 前置要求 根据使用的发行版是 RHEL 还是 CentOS 7.0,按照下面的链接来进行最小化的系统安装,网络使用静态 IP。 **对于 RHEL 7.0** * [RHEL 7.0 安装过程](http://www.tecmint.com/redhat-enterprise-linux-7-installation/) * [在 RHEL 7.0 中注册和启用订阅仓库](http://www.tecmint.com/enable-redhat-subscription-reposiories-and-updates-for-rhel-7/) **对于 CentOS 7.0** * [CentOS 7.0 安装过程](http://www.tecmint.com/centos-7-installation/) ### 第一步:使用基本配置安装apache 1、在完成最小化系统安装,并[在 RHEL/CentOS 7.0 上配置静态 IP](/article-3977-1.html) 后,就可以使用下面的命令从官方仓库安装最新的 Apache 2.4 httpd 服务了。 ``` # yum install httpd ``` ![Install Apache in CentOS 7](/data/attachment/album/201507/09/235140r70bpb5vxbnpp8gd.png) *安装 apache 服务* 2、安装完成后,使用下面的命令来管理apache守护进程,因为 RHEL 和 CentOS 7.0 都将 init 脚本从 SysV 升级到了systemd,所以同时你还可以使用 SysV 脚本和 Apache 脚本来管理服务。 ``` # systemctl status|start|stop|restart|reload httpd 或者 # service httpd status|start|stop|restart|reload 或者 # apachectl configtest| graceful ``` ![Start Apache in CentOS 7](/data/attachment/album/201507/09/235140yrpslfrzjar1gxfx.png) *启动apache服务* 3、在使用 systemd 初始化脚本来启动 apache 服务后,要用 `firewall-cmd` 打开 RHEL/CentOS 7.0 防火墙规则, 这是通过 [firewalld](/article-4425-1.html) 守护进程管理 iptables 的默认命令。\*\* ``` # firewall-cmd --add-service=http ``` **注意**:上面的命令会在系统重启或者 firewalld 服务重启后失效,因为它是即时的规则,它不会永久生效。要使 iptables 规则在 fiewalld 中持久化,使用 `--permanent` 选项并重启 firewalld 服务来生效。(LCTT 译注:也可以不重启 firewalld 服务,而是再执行一遍不带 `--permanent` 选项的命令。) ``` # firewall-cmd --permanent --add-service=http # systemctl restart firewalld ``` ![Enable Firewall in CentOS 7](/data/attachment/album/201507/09/235142dikwijwwvidimkj7.png) *在 CentOS 7 中启用防火墙* 下面是 firewalld 其他的重要选项: ``` # firewall-cmd --state # firewall-cmd --list-all # firewall-cmd --list-interfaces # firewall-cmd --get-service # firewall-cmd --query-service service_name # firewall-cmd --add-port=8080/tcp ``` 4、要验证 apache 的功能,打开一个远程浏览器并使用 http 协议访问你服务器的 IP 地址(http://server\_IP), 应该会显示下图中的默认页面。 ![Apache Default Page](/data/attachment/album/201507/09/235144ogrj7wwwmdw9g51x.png) *Apache 默认页* 5、现在 apache 的根地址在 `/var/www/html`,该目录中没有提供任何索引文件。如果你想要看见根目录下的文件夹列表,打开 apache 欢迎配置文件并设置 `<LocationMach>` 下 `Indexes` 前的状态从`-`到`+`,下面的截图就是一个例子。 ``` # nano /etc/httpd/conf.d/welcome.conf ``` ![Apache Directory Listing](/data/attachment/album/201507/09/235145kjxaj9x3rutt3uwr.png) *Apache 目录列出* 6、关闭文件,重启 apache 服务来使设置生效,重载页面来看最终效果。 ``` # systemctl restart httpd ``` ![Apache Index File](/data/attachment/album/201507/09/235146frba0arvva4znuqb.png) *Apache 索引文件* ### 第二步:为 Apache 安装 php5 支持 7、在为 apache 安装 php 支持之前,使用下面的命令的得到所有可用的php模块和扩展。 ``` # yum search php ``` ![Install PHP in CentOS 7](/data/attachment/album/201507/09/235149ky3itc4clp1gtg4a.png) 在 CentOS 7 上安装 PHP\* 8、根据你所要使用的应用类型,安装上述列表中所需的 PHP 模块。对于 PHP 中的基本的 MariaDB 支持和 PhpMyAdmin,你需要安装如下模块。 ``` # yum install php php-mysql php-pdo php-gd php-mbstring ``` ![Install PHP Modules in CentOS 7](/data/attachment/album/201507/09/235151ukrvdtdcrc2d3j3t.png) *安装 PHP 模块* ![Install PHP mbstring Module](/data/attachment/album/201507/09/235155qo893e3k88xzv00p.png) *安装 PHP mbstring 模块* 9、 要在你的浏览器上显示 PHP 的全部信息,用 root 账号执行如下命令在 Apache 的文档根目录下创建一个 `info.php` 文件,然后重启 httpd 服务,并在你的浏览器里面访问 http://server\_IP/info.php 。 ``` # echo "<?php phpinfo(); ?>" > /var/www/html/info.php # systemctl restart httpd ``` ![Check PHP Info in CentOS 7](/data/attachment/album/201507/09/235156q48g5166tmg4zrtr.png) *查看 CentOS 7 上的 PHP 信息* 10、如果你得到一个 PHP 的日期和时区错误,打开配置文件 `php.ini`,取消 `date.timezone` 语句的注释,加上你的实际时区参数,然后重启 Apache 守护进程。 ``` # nano /etc/php.ini ``` 找到并如下修改`date.timezone`,参考 [PHP 支持的时区列表](http://php.net/manual/en/timezones.php)。(LCTT 译注:对于中国,可以使用 Asia/Shanghai、Asia/Chongqing 等,但是不建议使用向后兼容而保留的 PRC。) ``` date.timezone = Continent/City ``` ![Set Timezone in PHP](/data/attachment/album/201507/09/235159fwyj0ty2nl27ssdq.png) *设置 PHP 的时区* ### 第三步:安装和配置 MariaDB 数据库 11、 Red Hat Enterprise Linux/CentOS 7.0 使用 MariaDB 替换 MySQL 为默认数据库管理系统。使用如下命令安装 MariaDB 数据库。 ``` # yum install mariadb-server mariadb ``` ![Install MariaDB in CentOS 7](/data/attachment/album/201507/09/235201wwvwvpxm176kvmxl.png) *在 CentOS 7中安装 MariaDB* 12、安装 MariaDB 后,启动数据库守护进程并使用 mysql*secure*installation 脚本来保护数据库(设置数据库的 root 密码、禁止远程 root 登录、移除测试数据库、移除匿名用户等)。 ``` # systemctl start mariadb # mysql_secure_installation ``` ![Start MariaDB Database](/data/attachment/album/201507/09/235204olf6gfczfklecjtt.png) *启动 MariaDB 数据库* ![Secure MySQL Installation](/data/attachment/album/201507/09/235205jvubttfa0url0003.png) *MariaDB 安全设置* 13、要测试数据库功能,使用 root 账户登录 MariaDB 并用 quit 退出。 ``` mysql -u root -p MariaDB > SHOW VARIABLES; MariaDB > quit ``` ![Connect MySQL Database in CentOS](/data/attachment/album/201507/09/235207w8r2scbsc4b2ccs8.png) *连接 MariaDB 数据库* ### 第四步:安装 PhpMyAdmin 14、 RHEL 7.0 或者 CentOS 7.0 仓库默认没有提供 PhpMyAdmin 二进制安装包。如果你不适应使用 MySQL 命令行来管理你的数据库,你可以通过下面的命令启用 CentOS 7.0 rpmforge 仓库来安装 PhpMyAdmin。 ``` # yum install http://pkgs.repoforge.org/rpmforge-release/rpmforge-release-0.5.3-1.el7.rf.x86_64.rpm ``` 启用 rpmforge 仓库后,下面安装 PhpMyAdmin。 ``` # yum install phpmyadmin ``` ![Enable RPMForge in CentOS 7](/data/attachment/album/201507/09/235209ley142yklt1bigb4.png) *启用 RPMForge 仓库* 15、下面配置 PhpMyAdmin 的 `phpmyadmin.conf` 来允许远程连接,它位于 Apache 的 `conf.d` 目录下,并注释掉下面的行。 ``` # nano /etc/httpd/conf.d/phpmyadmin.conf ``` 使用#来注释掉下列行。 ``` # Order Deny,Allow # Deny from all # Allow from 127.0.0.1 ``` ![Allow Remote PhpMyAdmin Access](/data/attachment/album/201507/09/235210svavv1sz2qvewh91.png) *允许远程 PhpMyAdmin 访问* 16、 要使用 cookie 验证来登录 PhpMyAdmin,像下面的截图那样使用[生成的秘密字符串](http://www.question-defense.com/tools/phpmyadmin-blowfish-secret-generator)来添加一个 blowfish 字符串到 `config.inc.php` 文件中,重启 apache 服务并打开 URL:http://server\_IP/phpmyadmin/。 ``` # nano /etc/httpd/conf.d/phpmyadmin.conf # systemctl restart httpd ``` ![Add Blowfish in PhpMyAdmin](/data/attachment/album/201507/09/235213zqszo9ipqy677q67.png) *在 PhpMyAdmin 中添加 Blowfish* ![PhpMyAdmin Dashboard](/data/attachment/album/201507/09/235216j0hohh2m82gj82aw.png) *PhpMyAdmin 面板* ### 第五步:在系统范围内启用 LAMP 17、 如果你需要在重启后自动运行 MariaDB 和 Apache 服务,你需要在系统级地启用它们。 ``` # systemctl enable mariadb # systemctl enable httpd ``` ![Enable Services System Wide](/data/attachment/album/201507/09/235217i9chiwom8thjmijo.png) *系统级启用服务* 这就是在 Red Hat Enterprise 7.0 或者 CentOS 7.0 中安装 LAMP 的过程。在 CentOS/RHEL 7.0 上关于 LAMP 的系列文章接下来将会讨论在 Apache 中创建虚拟主机,生成 SSL 证书、密钥和添加 SSL 事务支持。 --- via: <http://www.tecmint.com/install-lamp-in-centos-7/> 作者:[Matei Cezar](http://www.tecmint.com/author/cezarmatei/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,793
Linus Torvalds说那些对人工智能奇点深信不疑的人显然磕了药
http://news.softpedia.com/news/linus-torvalds-says-people-who-believe-in-an-ai-singularity-are-on-drugs-486373.shtml
2015-07-10T11:09:00
[ "Linus Torvalds", "人工智能" ]
https://linux.cn/article-5793-1.html
*像往常一样, 他的评论不能只看字面意思* ![](/data/attachment/album/201507/10/111001x6mycc8j1y8qc1c7.jpg) **人工智能是一个非常热门的话题,许多高端人士,包括特斯拉的CEO埃隆·马斯克就曾表示有情感的人工智能技术即将到来,同时这一技术将发展到危险的门槛上。不过Linus Torvalds显然不这么认为,他认为那只是差劲的科幻小说。** 人工智能激发了人们的创造力已经不是什么新鲜的想法了,不过近段时间关于所谓的人工智能奇点的讨论,引起了诸如埃隆·马斯克和斯蒂芬·霍金表示关心,认为可能会创造出一个怪兽。不只是他们,论坛和评论部分充斥着杞人忧天者,他们不知道该相信谁,或是哪个提出建议的人更聪明。 事实证明Linux项目创始人Linus Torvalds在这件事上显然有完全不同的观点。他说事实上什么都不会发生,我们也更有理由相信他。人工智能意需要有人编写它的代码,Linus知道编写人工智能代码会遇到的阻力和障碍。他很有可能已经猜到了什么会被涉及到,并且明白为什么人工智能不会成为威胁。 ### Linus Torvalds与人工智能 Linus Torvalds在[slashdot.org](http://classic.slashdot.org/story/15/06/30/0058243)上回答了一些社区中的问题,他的所有观点都十分有趣。他曾对[游戏的未来和Valve](http://news.softpedia.com/news/linus-torvalds-said-valve-is-exploring-a-second-source-against-microsoft-486266.shtml)发表看法,就像这次关于人工智能一样。虽然他经常是关注一些关于内核和开源的问题,但是他在其他部分也有自己的见解。事实是作为一个问题,人工智能工程是一个他可以从程序员的角度讨论的问题。 “所以我期待更多有针对性的(和相当棒的)AI,而不是它有多像人。像语言识别、模式识别,这样的东西。我根本找不出在你洗碗的时候,洗碗机和你讨论Sartre(萨特,法国哲学家、小说家、剧作家)有什么危害。真的有‘奇点’这种事吗?是的,我认为那只是科幻小说,还不是好的那种。无休止的指数增长?我说,真的!这些人嗑了什么药了吧?” Linus在Slashdot写道。 选择相信埃隆·马斯克还是Linus是你的决定,但如果我卷入了这场赌局,我会把钱投给Linus。 --- via: <http://news.softpedia.com/news/linus-torvalds-says-people-who-believe-in-an-ai-singularity-are-on-drugs-486373.shtml> 作者:[Silviu Stahie](http://news.softpedia.com/editors/browse/silviu-stahie) 译者:[martin2011qi](https://github.com/martin2011qi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,794
时隔两年,Oracle VirtualBox 5.0 正式版发布
https://blogs.oracle.com/virtualization/entry/oracle_vm_virtualbox_5_07
2015-07-10T21:27:39
[ "VirtualBox" ]
https://linux.cn/article-5794-1.html
我们很高兴的宣布,Oracle VM VirtualBox 5.0 发布了! ![](/data/attachment/album/201507/10/212742mqwct7e4zgacbv5t.jpg) 此版本包含了重大改进和大量的增强及错误修复,具体可详见官方的[发布公告](https://www.oracle.com/corporate/pressrelease/oracle-vm-virtualbox-5-070915.html)。Oracle VM VirtualBox 5.0 中的全部功能的说明请参见[这里[PDF]](http://www.oracle.com/us/technologies/virtualization/oraclevm/oracle-vm-virtualbox-ds-1655169.pdf)。 ### 这里只强调一些新的功能 #### 对新版本的 Windows 和 Linux 客户机的半虚拟化支持 Oracle VM VirtualBox 能够为软件的有效执行而提供半虚拟化接口。当设置一个虚拟机平台时,Oracle VM VirtualBox 可通过内置的虚拟化支持(Linux 客户机上的 KVM,Windows 客户机的 Hyper-V)提升客户机性能。 #### 支持 USB 3.0 设备的 xHCI 控制器 客户机操作系统现在可以直接识别 USB 3.0 设备,并支持 3.0 设备的全速操作。客户机可以配置使用 USB 1.1、2.0 和 3.0 设备。 #### 改进的拖放支持 从 Oracle VM VirtualBox 5.0 开始,我们改进了客户机和宿主操作系统之间的双向拖放支持;可以安装最新的客户机附件来支持拖放功能。 #### 磁盘镜像加密 Oracle VM VirtualBox 5.0 可以在 XTS 模式(128 位或 256 位)下使用 AES 算法来加密虚拟磁盘镜像;因为 DEK 存储在虚拟机配置文件中,所以加密功能的引入带来了在启动虚拟机之前输入密码的安全功能。 ![](/data/attachment/album/201507/10/211111vn3883zasenv9aes.png) #### 无界面启动和可分离启动选项 Oracle VM VirtualBox 现在支持在后台启动虚拟机,分离的前端进程可以关闭,而虚拟机会继续运行。 ![](/data/attachment/album/201507/10/211129hnf7dp7dnfdne74e.png) 更多的 GUI 改进: * 客户机内容(guest-content)缩放支持(包括3D 加速) * 新的用户界面设置包括定制状态条、菜单栏和客户机内容缩放 * 新的加密设置页可定制磁盘镜像的加密选项 * HiDPI 支持,包括在 Mac OS X 上的应用图标和可选的非缩放 HiDPI 输出(包括3D 加速) * 对 SATA 磁盘的热插拔支持 * 改进的 Mac 和 Windows 宿主机上的 HID LED 同步 * 在账户的预览窗口中以同等尺寸比例显示客户机屏幕 * 在虚拟机选择器里可以直接访问存储介质 如希望了解更多细节,请参考官方的 Oracle VM VirtualBox 5.0 [资料表](http://www.oracle.com/us/technologies/virtualization/oraclevm/oracle-vm-virtualbox-ds-1655169.pdf), [用户手册](http://download.virtualbox.org/virtualbox/5.0.0/UserManual.pdf) 和 [virtualbox.org](https://www.virtualbox.org/) 网站。 ### 下载 [![](/data/attachment/album/201507/10/212746rpwc8z0g35bbcpxw.png)](https://www.virtualbox.org/wiki/Downloads) * **VirtualBox 软件包。**这些二进制的发布许可协议是 GPL v2 + **VirtualBox 5.0 for Windows hosts** [x86/amd64](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0.0-101573-Win.exe) + **VirtualBox 5.0 for OS X hosts** [x86/amd64](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0.0-101573-OSX.dmg) + **[VirtualBox 5.0 for Linux hosts](https://www.virtualbox.org/wiki/Linux_Downloads)** - Ubuntu 14.04 ("Trusty") / 14.10 ("Utopic") / 15.04 ("Vivid") [i386](http://download.virtualbox.org/virtualbox/5.0.0/virtualbox-5.0_5.0.0-101573~Ubuntu~trusty_i386.deb) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/virtualbox-5.0_5.0.0-101573~Ubuntu~trusty_amd64.deb) - Ubuntu 12.04 LTS ("Precise Pangolin") [i386](http://download.virtualbox.org/virtualbox/5.0.0/virtualbox-5.0_5.0.0-101573~Ubuntu~precise_i386.deb) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/virtualbox-5.0_5.0.0-101573~Ubuntu~precise_amd64.deb) - Debian 8 ("Jessie") [i386](http://download.virtualbox.org/virtualbox/5.0.0/virtualbox-5.0_5.0.0-101573~Debian~jessie_i386.deb) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/virtualbox-5.0_5.0.0-101573~Debian~jessie_amd64.deb) - Debian 7 ("Wheezy") [i386](http://download.virtualbox.org/virtualbox/5.0.0/virtualbox-5.0_5.0.0-101573~Debian~wheezy_i386.deb) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/virtualbox-5.0_5.0.0-101573~Debian~wheezy_amd64.deb) - Debian 6 ("Squeeze") [i386](http://download.virtualbox.org/virtualbox/5.0.0/virtualbox-5.0_5.0.0-101573~Debian~squeeze_i386.deb) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/virtualbox-5.0_5.0.0-101573~Debian~squeeze_amd64.deb) - openSUSE 13.2 [i386](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_openSUSE132-1.i586.rpm) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_openSUSE132-1.x86_64.rpm) - openSUSE 13.1 [i386](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_openSUSE131-1.i586.rpm) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_openSUSE131-1.x86_64.rpm) - openSUSE 12.3 [i386](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_openSUSE123-1.i586.rpm) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_openSUSE123-1.x86_64.rpm) - SUSE Linux Enterprise Server 11 (SLES11) [i386](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_sles11.0-1.i586.rpm) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_sles11.0-1.x86_64.rpm) - Fedora 22 [i386](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_fedora22-1.i686.rpm) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_fedora22-1.x86_64.rpm) - Fedora 18 ("Spherical Cow") / 19 ("Schrödingers Cat") / 20 ("Heisenbug") / 21 [i386](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_fedora18-1.i686.rpm) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_fedora18-1.x86_64.rpm) - Oracle Linux 7 ("OL7") / Red Hat Enterprise Linux 7 ("RHEL7") / CentOS 7 [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_el7-1.x86_64.rpm) - Oracle Linux 6 ("OL6") / Red Hat Enterprise Linux 6 ("RHEL6") / CentOS 6 [i386](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_el6-1.i686.rpm) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_el6-1.x86_64.rpm) - Oracle Linux 5 ("OL5") / Red Hat Enterprise Linux 5 ("RHEL5") / CentOS 5 [i386](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_el5-1.i386.rpm) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0-5.0.0_101573_el5-1.x86_64.rpm) - All distributions [i386](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0.0-101573-Linux_x86.run) | [AMD64](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0.0-101573-Linux_amd64.run) + **VirtualBox 5.0 for Solaris hosts** [amd64](http://download.virtualbox.org/virtualbox/5.0.0/VirtualBox-5.0.0-101573-SunOS.tar.gz) * **VirtualBox 5.0 Oracle VM VirtualBox Extension Pack** [All supported platforms](http://download.virtualbox.org/virtualbox/5.0.0/Oracle_VM_VirtualBox_Extension_Pack-5.0.0-101573.vbox-extpack)
403
Forbidden
null
5,797
LFS 中文版手册发布:如何打造自己的 Linux 发行版
http://www.tecmint.com/create-custom-linux-distribution-from-scratch/
2015-07-13T07:48:00
[ "LFS" ]
https://linux.cn/article-5797-1.html
您是否想过打造您自己的 Linux 发行版?每个 Linux 用户在他们使用 Linux 的过程中都想过做一个他们自己的发行版,至少一次。我也不例外,作为一个 Linux 菜鸟,我也考虑过开发一个自己的 Linux 发行版。从头开发一个 Linux 发行版这件事情被称作 Linux From Scratch (LFS)。 ![](/data/attachment/album/201507/12/225059cu9e537ir33ikeru.jpg) 在开始之前,我总结了一些有关 LFS 的内容,如下: **1. 那些想要打造他们自己的 Linux 发行版的人应该了解打造一个 Linux 发行版(打造意味着从头开始)与配置一个已有的 Linux 发行版的不同** 如果您只是想调整下启动屏幕、定制登录页面以及拥有更好的外观和使用体验。您可以选择任何一个 Linux 发行版并且按照您的喜好进行个性化配置。此外,有许多配置工具可以帮助您。 如果您想打包所有必须的文件、引导加载器和内核,并选择什么该被包括进来,然后依靠自己编译这一切东西。那么您需要的就是 Linux From Scratch (LFS)。 **注意**:如果您只想要定制 Linux 系统的外表和体验,这个指南并不适合您。但如果您真的想打造一个 Linux 发行版,并且向了解怎么开始以及一些其他的信息,那么这个指南正是为您而写。 **2. 打造一个 Linux 发行版(LFS)的好处** * 您将了解 Linux 系统的内部工作机制 * 您将开发一个灵活的适应您需求的系统 * 您开发的系统(LFS)将会非常紧凑,因为您对该包含/不该包含什么拥有绝对的掌控 * 您开发的系统(LFS)在安全性上会更好 **3. 打造一个Linux发行版(LFS)的坏处** 打造一个 Linux 系统意味着将所有需要的东西放在一起并且编译之。这需要许多查阅、耐心和时间。而且您需要一个可用的 Linux 系统和足够的磁盘空间来打造 LFS。 **4. 有趣的是,Gentoo/GNU Linux 在某种意义上最接近于 LFS。Gentoo 和 LFS 都是完全从源码编译的定制的 Linux 系统** **5. 您应该是一个有经验的Linux用户,对编译包、解决依赖有相当的了解,并且是个 shell 脚本的专家。** 了解一门编程语言(最好是 C 语言)将会使事情变得容易些。但哪怕您是一个新手,只要您是一个优秀的学习者,可以很快的掌握知识,您也可以开始。最重要的是不要在 LFS 过程中丢失您的热情。 如果您不够坚定,恐怕会在 LFS 进行到一半时放弃。 \*\*6. 现在您需要一步一步的指导来打造一个 Linux 。LFS 手册是打造 LFS 的官方指南。我们的合作站点 tradepub 也为我们的读者制作了 LFS 的指南,这同样是免费的。 ### 您可以从下面的链接下载 Linux From Scratch 的电子书: [![](/data/attachment/album/201507/12/225214g6bmigjednbu4fbb.gif)](http://tecmint.tradepub.com/free/w_linu01/prgm.cgi) 下载: [Linux From Scratch](http://tecmint.tradepub.com/free/w_linu01/prgm.cgi) **7. 当前 LFS 的版本是 7.7,分为 systemd 版本和非 systemd 版本。** LFS 的官方网站是: <http://www.linuxfromscratch.org/> 您可以在官网在线浏览 LFS 以及类似 BLFS 这样的相关项目的手册,也可以下载不同格式的版本。 * LFS (非 systemd 版本): + PDF 版本: <http://www.linuxfromscratch.org/lfs/downloads/stable/LFS-BOOK-7.7.pdf> + 单一 HTML 版本: <http://www.linuxfromscratch.org/lfs/downloads/stable/LFS-BOOK-7.7-NOCHUNKS.html> + 打包的多页 HTML 版本: <http://www.linuxfromscratch.org/lfs/downloads/stable/LFS-BOOK-7.7.tar.bz2> * LFS (systemd 版本): + PDF 版本: <http://www.linuxfromscratch.org/lfs/downloads/7.7-systemd/LFS-BOOK-7.7-systemd.pdf> + 单一 HTML 版本: <http://www.linuxfromscratch.org/lfs/downloads/7.7-systemd/LFS-BOOK-7.7-systemd-NOCHUNKS.html> + 打包的多页 HTML 版本: <http://www.linuxfromscratch.org/lfs/downloads/7.7-systemd/LFS-BOOK-7.7-systemd.tar.bz2> **8. Linux 中国/LCTT 翻译了一份 LFS 手册(7.7,systemd 版本)** 经过 LCTT 成员的努力,我们终于完成了对 LFS 7.7 systemd 版本手册的翻译。 手册在线访问地址:<https://linux.cn/lfs/LFS-BOOK-7.7-systemd/index.html> 。 CHM 版本: <https://img.linux.net.cn/lfs/LFS-BOOK-7.7-systemd.chm> PDF 版本: <https://img.linux.net.cn/lfs/LFS-BOOK-7.7-systemd.pdf> 其它格式的版本稍后推出。 感谢参与翻译的成员: wxy, ictlyh, dongfengweixiao, zpl1025, H-mudcup, Yuking-net, kevinSJ 。 ### 关于:Linux From Scratch 这本手册是由 LFS 的项目领头人 Gerard Beekmans 创作的, Matthew Burgess 和 Bruse Dubbs 参与编辑,两人都是LFS 项目的联合领导人。这本书内容很广泛,有 338 页之多。 手册中内容包括:介绍 LFS、准备构建、构建 LFS、建立启动脚本、使 LFS 可以引导,以及附录。其中涵盖了您想知道的 LFS 项目中的所有东西。 这本手册还给出了编译一个包的预估时间。预估的时间以编译第一个包的时间作为参考。所有的东西都以易于理解的方式呈现,甚至对于新手来说也是这样。 如果您有充裕的时间并且真正对构建自己的 Linux 发行版感兴趣,那么您绝对不会错过下载这个电子书(免费下载)的机会。您需要做的,便是照着这本手册在一个工作的 Linux 系统(任何 Linux 发行版,足够的磁盘空间即可)中开始构建您自己的 Linux 系统,付出时间和热情。 如果 Linux 使您着迷,如果您想自己动手构建一个自己的 Linux 发行版,这便是现阶段您应该知道的全部了,其他的信息您可以参考上面链接的手册中的内容。 请让我了解您阅读/使用这本手册的经历,这本详尽的 LFS 指南的使用是否足够简单?如果您已经构建了一个 LFS 并且想给我们的读者一些建议,欢迎留言和反馈。 --- via: <http://www.tecmint.com/create-custom-linux-distribution-from-scratch/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[wwy-hust](https://github.com/wwy-hust) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,798
lolcat :一个在 Linux 终端中输出彩虹特效的命令行工具
http://www.tecmint.com/lolcat-command-to-output-rainbow-of-colors-in-linux-terminal/
2015-07-13T08:34:00
[ "lolcat" ]
https://linux.cn/article-5798-1.html
那些相信 Linux 命令行是单调无聊且没有任何乐趣的人们,你们错了,这里有一些有关 Linux 的文章,它们展示着 Linux 是如何的有趣和“淘气” 。 * [Linux命令及Linux终端的20个趣事](/article-2831-1.html) * [终端中的乐趣:6个有趣的Linux命令行工具](/article-4128-1.html) * [Linux终端的乐趣之把玩字词计数](/article-4088-1.html) 在本文中,我将讨论一个名为“lolcat”的小工具 – 它可以在终端中生成彩虹般的颜色。 ![为终端生成彩虹般颜色的输出的 Lolcat 命令](/data/attachment/album/201507/12/233817ti7ujuuu3t257es5.png) *为终端生成彩虹般颜色的输出的 Lolcat 命令* #### 何为 lolcat ? Lolcat 是一个针对 Linux,BSD 和 OSX 平台的工具,它类似于 [cat 命令](http://www.tecmint.com/13-basic-cat-command-examples-in-linux/),并为 `cat` 的输出添加彩虹般的色彩。 Lolcat 主要用于在 Linux 终端中为文本添加彩虹般的色彩。 ### 在 Linux 中安装 Lolcat **1. Lolcat 工具在许多 Linux 发行版的软件仓库中都可获取到,但可获得的版本都有些陈旧,而你可以通过 git 仓库下载和安装最新版本的 lolcat。** 由于 Lolcat 是一个 ruby gem 程序,所以在你的系统中必须安装有最新版本的 RUBY。 ``` # apt-get install ruby [在基于 APT 的系统中] # yum install ruby [在基于 Yum 的系统中] # dnf install ruby [在基于 DNF 的系统中] ``` 一旦 ruby 软件包安装成功,请确保验证安装的 ruby 的版本。 ``` # ruby --version ruby 2.1.5p273 (2014-11-13) [x86_64-linux-gnu] ``` **2. 接着使用下面的命令来从 lolcat 的 git 仓库中下载和安装最新版本的 lolcat。** ``` # wget https://github.com/busyloop/lolcat/archive/master.zip # unzip master.zip # cd lolcat-master/bin # gem install lolcat ``` 一旦 lolcat 安装后,你可以检查它的版本号。 ``` # lolcat --version lolcat 42.0.99 (c)2011 moe@busyloop.net ``` ### Lolcat 的用法 **3. 在开始使用 lolcat 之前,使用下面的命令来了解它可用的选项和其帮助文档。** ``` # lolcat -h ``` ![Lolcat 的帮助文档](/data/attachment/album/201507/12/233818tb261kz6h1k6mz1r.png) *Lolcat 的帮助文档* **4. 接着, 通过管道连接 lolcat 和其他命令,例如 ps, date 和 cal:** ``` # ps | lolcat # date | lolcat # cal | lolcat ``` ![ps 命令的输出](/data/attachment/album/201507/12/233818rjrol0uoro9r9jtm.png) *ps 命令的输出* ![Date 的输出](/data/attachment/album/201507/12/233819vrz5h2l5o5lgz75k.png) *Date 的输出* ![Calendar 的输出](/data/attachment/album/201507/12/233819jz0lczc97rc2uwcl.png) *Calendar 的输出* **5. 使用 lolcat 来展示一个脚本文件的代码:** ``` # lolcat test.sh ``` ![用 lolcat 来展示代码](/data/attachment/album/201507/12/233821mjgssa2sh8j08xhx.png) *用 lolcat 来展示代码* **6. 通过管道连接 lolcat 和 figlet 命令。Figlet 是一个展示由常规的屏幕字符组成的巨大字符串的应用。我们可以通过管道将 figlet 的输出连接到 lolcat 中来展示出如下的多彩输出:** ``` # echo I ❤ Tecmint | lolcat # figlet I Love Tecmint | lolcat ``` ![多彩的文字](/data/attachment/album/201507/12/233822gjm7mvsxyag7qgj3.png) *多彩的文字* **注**: 注意, ❤ 是一个 unicode 字符。要安装 figlet,你需要像下面那样使用 yum 和 apt 来得到这个软件包: ``` # apt-get figlet # yum install figlet # dnf install figlet ``` **7. 给文本赋予彩虹颜色的动画:** ``` $ echo I ❤ Tecmit | lolcat -a -d 500 ``` ![动的文本](/data/attachment/album/201507/12/233823jehnp3kpni8z9pzm.gif) *动的文本* 这里选项 `-a` 指的是 Animation(动画), `-d` 指的是 duration(持续时间)。在上面的例子中,持续 500 次动画。 **8. 在彩虹般的颜色下阅读 man 页(例如 `man ls`):** ``` # man ls | lolcat ``` ![多彩地显示文件](/data/attachment/album/201507/12/233824jka0omoajr6o0mj6.png) *多彩地显示文件* **9. 通过管道连接 lolcat 和 cowsay。cowsay 是一个可配置的正在思考或说话的奶牛,这个程序也支持其他的动物。** 使用下面的命令来安装 cowsay : ``` # apt-get cowsay # yum install cowsay # dnf install cowsay ``` 安装后,使用下面的命令来显示在 cowsay 中的所有动物: ``` # cowsay -l ``` **样例输出** ``` Cow files in /usr/share/cowsay/cows: apt beavis.zen bong bud-frogs bunny calvin cheese cock cower daemon default dragon dragon-and-cow duck elephant elephant-in-snake eyes flaming-sheep ghostbusters gnu head-in hellokitty kiss kitty koala kosh luke-koala mech-and-cow meow milk moofasa moose mutilated pony pony-smaller ren sheep skeleton snowman sodomized-sheep stegosaurus stimpy suse three-eyes turkey turtle tux unipony unipony-smaller vader vader-koala www ``` 通过管道连接 lolcat 和 cowsay 后的输出,并且使用了‘gnu’形象的 cowfile。 ``` # cowsay -f gnu ☛ Tecmint ☚ is the best Linux Resource Available online | lolcat ``` ![使用 Lolcat 的 Cowsay](/data/attachment/album/201507/12/233824aum0w02gxuk4d6dz.png) *使用 Lolcat 的 Cowsay* **注**: 你可以在将 lolcat 和其他任何命令用管道连接起来在终端中得到彩色的输出。 **10. 你可以为最常用的命令创建别名来使得命令的输出呈现出彩虹般的色彩。你可以像下面那样为 ‘ls -l‘ 命令创建别名,这个命令输出一个目录中包含内容的列表。** ``` # alias lolls="ls -l | lolcat" # lolls ``` ![多彩的 Alias 命令](/data/attachment/album/201507/12/233825jl9mg6o8ga5walpm.png) *多彩的 Alias 命令* 你可以像上面建议的那样,为任何命令创建别名。为了使得别名永久生效,你需要添加相关的代码(上面的代码是 ls -l 的别名) 到 ~/.bashrc 文件中,并登出后再重新登录来使得更改生效。 现在就是这些了。我想知道你是否曾经注意过 lolcat 这个工具?你是否喜欢这篇文章?欢迎在下面的评论环节中给出你的建议和反馈。喜欢并分享我们,帮助我们传播。 --- via: <http://www.tecmint.com/lolcat-command-to-output-rainbow-of-colors-in-linux-terminal/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,812
动态壁纸给linux发行版添加活力背景
http://www.omgubuntu.co.uk/2015/05/animated-wallpaper-adds-live-backgrounds-to-linux-distros
2015-07-14T17:24:00
[ "墙纸" ]
https://linux.cn/article-5812-1.html
**我们知道你想拥有一个有格调的ubuntu桌面来炫耀一下 :)** 在linxu上费一点点劲搭建一个出色的工作环境是很简单的。今天,我们([重新](http://www.omgubuntu.co.uk/2011/11/5-system-monitoring-tools-for-ubuntu))着重来探讨长驻你脑海中那些东西 :一款自由,开源,能够给你的截图增添光彩的工具。 它叫 **Live Wallpaper** (正如你猜的那样) ,它用由OpenGL驱动的一款动态桌面背景来代替标准的静态桌面背景。 最好的一点是:在ubuntu上安装它很容易。 ### 动态壁纸主题 ![](/data/attachment/album/201507/14/172530wnwzw8gfangavr4p.jpg) Live Wallpaper 不是此类软件唯一的一款,但它是最好的一款之一。 它附带很多不同的开箱即用的主题。 ![Live Wallpaper](/data/attachment/album/201507/14/172527ihk30tgchhygxlgl.gif) *Live Wallpaper* 从精细的(‘noise’)到狂热的 (‘nexus’),包罗万象,甚至有受到Ubuntu Phone欢迎屏幕启发的obligatory锁屏壁纸。 * Circles — 带着‘evolving circle’风格的时钟,灵感来自于Ubuntu Phone * Galaxy — 支持自定义大小,位置的旋转星系 * Gradient Clock — 放在倾斜面上的polar时钟 * Nexus — 亮色粒子火花穿越屏幕 * Noise — 类似于iOS动态壁纸的Bokeh设计 * Photoslide — 由文件夹(默认为 ~/Photos)内照片构成的动态网格相册 Live Wallpaper **完全开源**,所以没有什么能够阻挡天马行空的艺术家们用诀窍(当然还有耐心)来创造他们自己的精美主题。 ### 设置 & 特点 ![](/data/attachment/album/201507/14/172532oyx9ynjfff1yf9qf.jpg) 虽然某些主题与其它主题相比有更多的选项,但每款主题都可以通过某些方式来配置或者定制。 例如,Nexus主题中 (上图所示) 你可以更改脉冲粒子的数量,颜色,大小和出现频率。 首选项提供了 **通用选项** 适用于所有主题,包括: * 设置登录界面的动态壁纸 * 自定义动画背景 * 调节 FPS (包括在屏幕上显示FPS) * 指定多显示器的行为 有如此多的选项,diy适用于你自己的桌面背景是很容易的。 ### 缺陷 #### 没有桌面图标 Live Wallpaper在运行时,你无法在桌面添加,打开或者是编辑文件和文件夹。 首选项程序提供了一个选项来让你这样做(只是猜测)。也许是它只能在老版本中使用,在我们的测试中-测试环境为Ununtu 14.10,它不工作。但在测试中发现当把桌面壁纸设置成格式为png的图片文件时,这个选项有用,不需要是透明的png图片文件,只要是png图片文件就行了。 #### 资源占用 动态壁纸与标准的壁纸相比要消耗更多的系统资源。 我们并不是说任何时候都会消耗大量资源,但至少在我们的测试中是这样,所以低配置机器和笔记本用户要谨慎使用这款软件。可以使用 [系统监视器](http://www.omgubuntu.co.uk/2011/11/5-system-monitoring-tools-for-ubuntu) 来追踪CPU 和GPU的负载。 #### 退出程序 对我来说最大的“bug”绝对是没有“退出”选项。 当然,动态壁纸可以通过托盘图标和首选项完全退出,那退出托盘图标呢?没办法。只能在终端执行命令‘pkill livewallpaper’。 ### 怎么在 Ubuntu 14.04 LTS+ 上安装 Live Wallpaper ![](/data/attachment/album/201507/14/172533vhlvwchh9e5vcpcp.jpg) 要想在Ubuntu 14.04 LTS 和更高版本中安装 Live Wallpaper,你首先需要把官方PPA添加进你的软件源。 最快的方法是在终端中执行下列命令: ``` sudo add-apt-repository ppa:fyrmir/livewallpaper-daily sudo apt-get update && sudo apt-get install livewallpaper ``` 你还需要安装 indicator applet,这样可以方便快速的打开或是关闭动态壁纸,从菜单选择主题,另外图形配置工具可以让你基于你自己的口味来配置每款主题。 ``` sudo apt-get install livewallpaper-config livewallpaper-indicator ``` 所有都安装好之后你就可以通过Unity Dash来启动它和它的首选项工具了。 ![](/data/attachment/album/201507/14/172541k8cgrlcggeslcen6.png) 让人不爽的是,安装完成后,程序不会自动打开托盘图标,而仅仅将它自己加入自动启动项,所以,快速来个注销 -> 登陆它就会出现啦。 ### 总结 如果你正处在无聊呆板的桌面中,幻想有一个更有活力的生活,不妨试试。另外,告诉我们你想看到什么样的动态壁纸! --- via: <http://www.omgubuntu.co.uk/2015/05/animated-wallpaper-adds-live-backgrounds-to-linux-distros> 作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[Love-xuan](https://github.com/Love-xuan) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,813
在Ubuntu 15.04中安装Ruby on Rails
http://linoxide.com/ubuntu-how-to/installing-ruby-rails-using-rbenv-ubuntu-15-04/
2015-07-14T17:50:00
[ "Ruby", "RoR" ]
/article-5813-1.html
本篇我们会学习如何用rbenv在Ubuntu 15.04中安装Ruby on Rails。我们选择Ubuntu作为操作系统是因为Ubuntu是Linux发行版中自带很多包和完整文档的操作系统,因此我认为这是正确的选择。如果你还没有安装最新的Ubuntu,你可以从[下载iso文件](http://release.ubuntu.com/15.04)开始。 ### 安装 Ruby 我们要做的第一件事是更新Ubuntu包并且为Ruby安装一些依赖。 ``` sudo apt-get update sudo apt-get install git-core curl zlib1g-dev build-essential libssl-dev libreadline-dev libyaml-dev libsqlite3-dev sqlite3 libxml2-dev libxslt1-dev libcurl4-openssl-dev python-software-properties libffi-dev ``` 有三种方法来安装Ruby:rbenv、rvm和从源码安装。每种都有各自的好处,但是近来开发者们更倾向使用rbenv而不是rvm和源码来安装。我们将安装最新的Ruby版本,2.2.2。 用rbenv来安装只有简单的两步。第一步安装rbenv,接着是ruby-build: ``` cd git clone git://github.com/sstephenson/rbenv.git .rbenv echo 'eval "$(rbenv init -)"' >> ~/.bashrc exec $SHELL git clone git://github.com/sstephenson/ruby-build.git ~/.rbenv/plugins/ruby-build echo 'export PATH="$HOME/.rbenv/plugins/ruby-build/bin:$PATH"' >> ~/.bashrc exec $SHELL git clone https://github.com/sstephenson/rbenv-gem-rehash.git ~/.rbenv/plugins/rbenv-gem-rehash rbenv install 2.2.2 rbenv global 2.2.2 ruby -v ``` 我们需要安装Bundler,但是我们要在安装之前告诉rubygems不要为每个包安装本地文档。 ``` echo "gem: --no-ri --no-rdoc" > ~/.gemrc gem install bundler ``` ### 配置 GIT 配置git之前,你要创建一个github账号,你可以注册一个[github 账号](http://github.com)。我们需要git作为版本控制系统,因此我们要设置它来匹配github账号。 用户的github账号来替换下面的**Name** 和 **Email address** 。 ``` git config --global color.ui true git config --global user.name "YOUR NAME" git config --global user.email "YOUR@EMAIL.com" ssh-keygen -t rsa -C "YOUR@EMAIL.com" ``` 接下来用新生成的ssh key添加到github账号中。这样你需要复制下面命令的输出并[粘贴在Github的设置页面里面](https://github.com/settings/ssh)。 ``` cat ~/.ssh/id_rsa.pub ``` 如果你做完了,检查是否已经成功。 ``` ssh -T git@github.com ``` 你应该得到下面这样的信息。 ``` Hi excid3! You've successfully authenticated, but GitHub does not provide shell access. ``` ### 安装 Rails 我们需要安装像NodeJS这样的javascript运行时环境,因为近来Rails的依赖越来越多了。这样我们可以合并和压缩你的javascript,从而提供一个更快的生产环境。 我们需要添加PPA来安装nodeJS。 ``` sudo add-apt-repository ppa:chris-lea/node.js sudo apt-get update sudo apt-get install nodejs ``` 如果在更新时遇到了问题,你可以试试这个命令: ``` # Note the new setup script name for Node.js v0.12 curl -sL https://deb.nodesource.com/setup_0.12 | sudo bash - # Then install with: sudo apt-get install -y nodejs ``` 下一步,用这个命令安装 rails: ``` gem install rails -v 4.2.1 ``` 因为我们正在使用rbenv,用下面的命令来让rails的执行程序可以使用。 ``` rbenv rehash ``` 要确保rails已经正确安装,你可以运行rails -v,显示如下: ``` rails -v # Rails 4.2.1 ``` 如果你得到的是不同的结果可能是环境没有设置正确。 ### 设置 MySQL 或许你已经熟悉MySQL了,你可以从Ubuntu的仓库中安装MySQL的客户端与服务端。你可以在安装时设置root用户密码。这个信息将来会进入你rails程序的database.yml文件中。用下面的命令来安装mysql。 ``` sudo apt-get install mysql-server mysql-client libmysqlclient-dev ``` 安装libmysqlclient-dev用于mysql2 gem的编译;在设置rails程序时,rails通过它来连接mysql。 ### 最后一步 让我们尝试创建你的第一个rails程序: ``` # 使用 MySQL 数据库 rails new myapp -d mysql # 进入到应用目录 cd myapp # 创建数据库 rake db:create rails server ``` 访问http://localhost:3000来访问你的新网站。现在你的电脑上已经可以构建rails程序了。 ![](/data/attachment/album/201507/14/175043nu5bwu5pdz9pwcbw.png) 如果你在创建数据库时遇到了“Access denied for user 'root'@'localhost' (Using password: NO)”这个错误信息,你需要更新你的config/database.yml文件来匹配数据库的**用户名**和**密码**。 ``` # 编辑配置文件夹中的 database.yml nano config/database.yml ``` 接着填入MySql root用户的密码。 ![](/data/attachment/album/201507/14/175019xnnzn3h22toez1a2.png) 退出 (Ctrl+X)并保存。 ### 总结 Rails是用Ruby写的, 也是随着rails一起使用的编程语言。在Ubuntu 15.04中Ruby on Rails可以用rbenv、 rvm和源码的方式来安装。本篇我们使用的是rbenv方式并用了MySQL作为数据库。有任何的问题或建议,请在评论栏指出。 --- via: <http://linoxide.com/ubuntu-how-to/installing-ruby-rails-using-rbenv-ubuntu-15-04/> 作者:[Obet](http://linoxide.com/author/obetp/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /ubuntu-how-to/installing-ruby-rails-using-rbenv-ubuntu-15-04/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c6a10>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,816
十个非常有趣的 Linux 彩蛋
http://www.linux.com/news/software/applications/820944-10-truly-amusing-linux-easter-eggs-
2015-07-15T07:30:00
[ "彩蛋" ]
https://linux.cn/article-5816-1.html
*![](/data/attachment/album/201507/14/215221uxqydfajaxkxtq5f.jpg)* 在1979年的时候,Atari 公司为 Atari 2600 开发了一个电子游戏——[Adventure](http://en.wikipedia.org/wiki/Adventure_(Atari_2600))。 制作 Adventure 的程序员悄悄的把这样的一个功能放进了游戏里,当用户把一个“隐形方块”移动到特定的一面墙上时,会让用户进入一个“密室”。那个房间里只有一句话:“Created by [Warren Robinett](http://en.wikipedia.org/wiki/Warren_Robinett)”——意思是,由 [Warren Robinett](http://en.wikipedia.org/wiki/Warren_Robinett) 创建。 ![](/data/attachment/album/201507/14/214721rulkkpr1crykl2pf.png) *图片来自: Wikipedia* Atari 有一项反对作者将自己的名字放进他们的游戏里的政策,所以这个无畏的程序员只能偷偷的把自己的名字放进游戏里。Atari 在 Warren Robinett 离开公司之后才发现这个“密室”。Atari 并没有对此感到生气,而是给这类“秘密功能”起了个名字——“彩蛋”,因为——你懂的——你会寻找它们。Atari 还宣布将在之后的游戏中加入更多的“彩蛋”。 这种软件里的“隐藏功能”并不是第一次出现(这类特性的首次出现是在1966年[PDP-10](http://en.wikipedia.org/wiki/PDP-10)的操作系统上),但这是它第一次有了名字,同时也是第一次真正的被众多电脑用户和游戏玩家所注意。 Linux(以及和Linux相关的软件)也没有被遗忘。这些年来,人们为这个倍受喜爱的操作系统创作了很多非常有趣的彩蛋。下面将介绍我个人最喜爱的彩蛋——以及如何找到它们。 你很快就会想到这些彩蛋大多需要通过终端才能体验到。这是故意的。因为终端比较酷。【我应该借此机机会提醒你一下,如果你想运行我所列出的应用,然而你却还没有安装它们,你是绝对无法运行成功的。你应该先安装好它们的。因为……毕竟只是计算机。】 ### Arch : 包管理器(pacman)里的吃豆人(Pac-Man) 为了广大的 [Arch Linux](http://en.wikipedia.org/wiki/Arch_Linux) 粉丝,我们将以此开篇。你们可以将“[pacman](http://www.linux.com/news/software/applications/820944-10-truly-amusing-linux-easter-eggs-#Pacman)” (Arch 的包管理器)的进度条变成吃豆人吃豆的样子。别问我为什么这不是默认设置。 ![](/data/attachment/album/201507/14/214759huh43sw5o8l548yu.png) 你需要在你最喜欢的文本编辑器里编辑“/etc/pacman.conf”文件。在“# Misc options”区下面,删除“Color”前的“#”,添加一行“ILoveCandy”。因为吃豆人喜欢糖豆。 没错,这样就行了!下次你在终端里运行pacman管理器时,你就会让这个黄颜色的小家伙吃到些午餐(至少能吃些糖豆)。 ### GNU Emacs : 俄罗斯方块(Tetris)以及…… ![emacs Tetris](/data/attachment/album/201507/14/215223nwgawkjdwxngkhkn.jpg) *我不喜欢 emacs。一点也不喜欢。但是它确实能玩俄罗斯方块。* 我要坦白一件事:我不喜欢[emacs](http://en.wikipedia.org/wiki/GNU_Emacs)。一点也不喜欢。 有些东西让我满心欢喜。有些东西能带走我所有伤痛。有些东西能解决我的烦恼。这些[绝对跟 emacs 无关](https://www.youtube.com/watch?v=AQ4NAZPi2js)。 但是它确实能玩俄罗斯方块。这可不是件小事。方法如下: 第一步)打开 emacs。(有疑问?输入“emacs”。) 第二步)按下键盘上的Esc和X键。 第三步)输入“tetris”然后按下“Enter”。 玩腻了俄罗斯方块?试试“pong”、“snake”还有其他一堆小游戏(或奇怪的东西)。在“/usr/share/emacs/\*/lisp/play”文件中可以看见完整的清单。 ### 动物说话了 让动物在终端里说话在 Linux 世界里有着悠久而辉煌的历史。下面这些真的是最应该知道的。 在用基于 Debian 的发行版?试试输入“apt-get moo"。 ![apt-get moo](/data/attachment/album/201507/14/215223rtdd8ufedvhebxjh.jpg) *apt-get moo* 简单?的确。但这是只会说话的牛,所以惹我们喜欢。再试试“aptitude moo”。他会告诉你“There are no Easter Eggs in this program(这个程序里没有彩蛋)”。 关于 [aptitude](https://wiki.debian.org/Aptitude) 有一件事你一定要知道,它是个肮脏、下流的骗子。如果 aptitude 是匹诺曹,那它的鼻子能刺穿月球。在这条命令中添加“-v”选项。不停的添加 v,直到它被逼得投降。 ![](/data/attachment/album/201507/14/215224j8kajawf8yhjgghg.jpg) *我猜大家都同意,这是 aptitude 中最重要的功能。* 我猜大家都同意,这是 aptitude 中最重要的功能。但是万一你想把自己的话让一头牛说出来怎么办?这时我们就需要“cowsay”了。 还有,别让“cowsay(牛说)”这个名字把你给骗了。你可以让你的话从各种东西的嘴里说出来。比如一头大象,Calvin,Beavis 甚至可以是 Ghostbusters(捉鬼敢死队)的标志。只需在终端输入“cowsay -l”就能看到所有选项的列表。 ![](/data/attachment/album/201507/14/215224a6m0mtdnj1ztmfq6.jpg) *你可以让你的话从各种东西的嘴里说出来* 想玩高端点的?你可以用管道把其他应用的输出放到 cowsay 中。试试“fortune | cowsay”。非常有趣。 ### Sudo 请无情的侮辱我 当你做错事时希望你的电脑骂你的人请举手。反正,我这样想过。试试这个: 输入“sudo visudo”以打开“sudoers”文件。在文件的开头你很可能会看见几行以“Defaults”开头的文字。在那几行后面添加“Defaults insults”并保存文件。 现在,只要你输错了你的 sudo 密码,你的系统就会骂你。这些可以提高自信的语句包括“听着,煎饼脑袋,我可没时间听这些垃圾。”,“你吃错药了吧?”以及“你被电过以后大脑就跟以前不太一样了是不是?” 把这个设在同事的电脑上会有非常有趣。 ### Firefox 是个厚脸皮 这一个不需要终端!太棒了! 打开火狐浏览器。在地址栏填上“about:about”。你将得到火狐浏览器中所有的“about”页。一点也不炫酷,是不是? 现在试试“about:mozilla”,浏览器就会回应你一条从“[Book of Mozilla(Mozilla 之书)](http://en.wikipedia.org/wiki/The_Book_of_Mozilla)”——这本浏览网页的圣经——里引用的话。我的另一个最爱是“about:robots”,这个也很有趣。 ![](/data/attachment/album/201507/14/215224xjq0jwwg8b98qqqw.jpg) *“[Book of Mozilla(Mozilla 之书)](http://en.wikipedia.org/wiki/The_Book_of_Mozilla)”——浏览网页的圣经。* ### 精心调制的混搭日历 是否厌倦了千百年不变的 [Gregorian Calendar(罗马教历)](http://en.wikipedia.org/wiki/Gregorian_calendar)?准备好乱入了吗?试试输入“ddate”。这样会把当前日历以[Discordian Calendar(不和教历)](http://en.wikipedia.org/wiki/Discordian_calendar)的方式显示出来。你会遇见这样的语句: “今天是Sweetmorn(甜美的清晨),3181年Discord(不和)季的第18天。” 我听见你在说什么了,“但这根本不是什么彩蛋!”嘘~,闭嘴。只要我想,我就可以把它叫做彩蛋。 ### 快速进入黑客行话模式 想不想尝试一下电影里超级黑客的感觉?试试(通过添加“-oS”)把扫描器设置成“[Script Kiddie](http://nmap.org/book/output-formats-script-kiddie.html)”模式。然后所有的输出都会变成最3l33t的[黑客范](http://nmap.org/book/output-formats-script-kiddie.html)。 例如: “nmap -oS - google.com” 赶快试试。我知道你有多想这么做。你一定会让安吉丽娜·朱莉(Angelina Jolie)[印象深刻](https://www.youtube.com/watch?v=Ql1uLyuWra8)。 ### lolcat彩虹 在你的Linux终端里有很多彩蛋真真是极好的……但是如果你还想要变得……更有魅力些怎么办?输入:lolcat。把任何一个程序的文本输出通过管道输入到lolcat里。你会得到它的超级无敌彩虹版。 ![](/data/attachment/album/201507/14/215225vmp9wxm5apmz2x0a.jpg) *把任何一个程序的文本输出通过管道输入到lolcat里。你会得到它的超级无敌彩虹版。* ### 追光标的小家伙 ![oneko cat](/data/attachment/album/201507/14/215225omj9j4tuquzxv0tx.jpg) *“Oneko” -- 经典 “Neko”的Linux移植版本。* 接下来是“Oneko” -- 经典 “[Neko](http://en.wikipedia.org/wiki/Neko_%28computer_program%29)”的Linux移植版本。基本上就是个满屏幕追着你的光标跑的小猫。 虽然严格来它并不算是“彩蛋”,它还是很有趣的。而且感觉上也是很彩蛋的。 你还可以用不同的选项(比如“oneko -dog”)把小猫替代成小狗,或是调成其他样式。用这个对付讨厌的同事有着无限的可能。 就是这些了!一个我最喜欢的Linux彩蛋(或是类似东西)的清单。请尽情的的在下面的评论区留下你的最爱。因为这是互联网。你就能做这些事。 --- via: <http://www.linux.com/news/software/applications/820944-10-truly-amusing-linux-easter-eggs-> 作者:[Bryan Lunduke](http://www.linux.com/community/forums/person/56734) 译者:[H-mudcup](https://github.com/H-mudcup) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,817
Linux常见问题解答--如何修复&quot;tar:由于前一个错误导致于失败状态中退出&quot;
http://ask.xmodulo.com/tar-exiting-with-failure-status-due-to-previous-errors.html
2015-07-15T07:59:00
[ "tar" ]
/article-5817-1.html
> > **问题**: 当我想试着用tar命令来创建一个压缩文件时,总在执行过程中失败,并且抛出一个错误说明"tar:由于前一个错误导致于失败状态中退出"("Exiting with failure status due to previous errors"). 什么导致这个错误的发生,要如何解决? > > > ![](/data/attachment/album/201507/14/220027rbdrgnd2oyzbtxz8.jpg) 如果当你执行tar命令时,遇到了下面的错误,那么最有可能的原因是对于你想用tar命令压缩的某个文件中,你并不具备其读权限。 ``` tar: Exiting with failure status due to previous errors ``` 那么我们要如何确定引起错误的这个(些)文件呢?或者如何确定其它的错误根源? 事实上tar命令应该会打印出所谓的“上一个错误”("previous errors")到底是什么错误,但是如果你让tar运行在详细模式(即verbose mode,例如, -cvf),那么你会很容易错失这些信息。要找到这些信息,你可以像下面那样,把tar的标准输出(stdout)信息过滤掉。 ``` $ tar cvzfz backup.tgz my_program/ > /dev/null ``` 然后你会看到tar输出的标准错误(stderr)信息。(LCTT 译注:自然,不用 v 参数也可以。) ``` tar: my_program/src/lib/.conf.db.~lock~: Cannot open: Permission denied tar: Exiting with failure status due to previous errors ``` 你可以从上面的例子中看到,引起错误的原因的确是“读权限不允许”(denied read permission.)要解决这个问题,只要简单地更改(或移除)问题文件的权限,然后重新执行tar命令即可。 --- via: <http://ask.xmodulo.com/tar-exiting-with-failure-status-due-to-previous-errors.html> 作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[XLCYun(袖里藏云)](https://github.com/XLCYun) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /tar-exiting-with-failure-status-due-to-previous-errors.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c6410>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)"))
null
5,828
原子(Atom)代码编辑器的视频短片介绍
http://itsfoss.com/atom-stable-released/
2015-07-15T23:33:00
[ "atom" ]
https://linux.cn/article-5828-1.html
![](/data/attachment/album/201507/15/233326pfbw6sr8r8trzh84.png) [Atom 1.0](http://blog.atom.io/2015/06/25/atom-1-0.html)时代来临。作为[最好的开源代码编辑器]之一,Atom已公开使用快一年了,近段时间,第一个稳定版本的原子编辑器的发布却引起了广大用户的谈论。这个[Github](https://github.com/)上的项目随着“为21世纪破解文本编辑器”活动的兴起,已近被下载了150万余次,积累35万活跃用户。 ### 这是个漫长的过程 滴水穿石,非一日之功,Atom同样经历一个漫长的过程。从2008年首次提出概念到这个月第一个稳定版本的发布,主创人员和全球各地的贡献者,这几年来不断地致力于Atom核心的开发。我们通过下面这张图来了解一下Atom的发展过程: ![Image credit: Atom](/data/attachment/album/201507/15/233327frvcwtzn5oabrbw1.jpg) *图片来源:Atom* ### 回到未来 Atom 1.0 通过流行的视频发布方式,展示了这款编辑器的潜能。这个视屏就像70年代的科幻连续剧一样,今天你将会看到一个极其酷炫的视频: ### 原子编辑器特点 * 跨平台编辑 * 实现包管理 * 智能化、自动化 * 文件系统视图 * 多窗操作 * 支持查找更换 * 高度个性化 * 界面更新颖 ### Atom 1.0起来 Atom 1.0 支持Linux,Windows和Mac OS X。对于基于Debian的Linux,例如Ubuntu和Linux Mint,Atom提供了deb包。对于Fedora,同样有rpm包。如果你愿意,你可以下载源代码。通过下面的链接下载最新的版本。 * [Atom .deb](https://atom.io/download/deb) * [Atom .rpm](https://atom.io/download/rpm) * [Atom Source Code](https://github.com/atom/atom/blob/master/docs/build-instructions/linux.md) 如果你愿意,你可以[通过PPA在Ubuntu上安装Atom]。PPA并不是官方解决方案。 注:下面是一个调查,可以发布的时候在文章内发布个调查 #### 你对Atom感兴趣吗? * 噢,当然!这是程序员的福音。 * 我并不这样认为。我见过更好的编辑器。 * 并不关心,我的默认编辑器就能胜任我的工作。 --- via: <http://itsfoss.com/atom-stable-released/> 作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[sevenot](https://github.com/sevenot) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,829
为什么 mysql 里的 ibdata1 文件不断的增长?
https://www.percona.com/blog/2013/08/20/why-is-the-ibdata1-file-continuously-growing-in-mysql/
2015-07-16T09:41:00
[ "MySQL", "ibdata1" ]
https://linux.cn/article-5829-1.html
![ibdata1 file](/data/attachment/album/201507/16/004226wdcda9djbabjzdx4.jpg) 我们在 [Percona 支持栏目](https://www.percona.com/products/mysql-support)经常收到关于 MySQL 的 ibdata1 文件的这个问题。 当监控服务器发送一个关于 MySQL 服务器存储的报警时,恐慌就开始了 —— 就是说磁盘快要满了。 一番调查后你意识到大多数地盘空间被 InnoDB 的共享表空间 ibdata1 使用。而你已经启用了 [innodb\_file\_per\_table](http://dev.mysql.com/doc/refman/5.5/en/innodb-parameters.html#sysvar_innodb_file_per_table),所以问题是: ### ibdata1存了什么? 当你启用了 `innodb_file_per_table`,表被存储在他们自己的表空间里,但是共享表空间仍然在存储其它的 InnoDB 内部数据: * 数据字典,也就是 InnoDB 表的元数据 * 变更缓冲区 * 双写缓冲区 * 撤销日志 其中的一些在 [Percona 服务器](https://www.percona.com/software/percona-server)上可以被配置来避免增长过大的。例如你可以通过 [innodb\_ibuf\_max\_size](https://www.percona.com/doc/percona-server/5.5/scalability/innodb_insert_buffer.html#innodb_ibuf_max_size) 设置最大变更缓冲区,或设置 [innodb\_doublewrite\_file](https://www.percona.com/doc/percona-server/5.5/performance/innodb_doublewrite_path.html?id=percona-server:features:percona_innodb_doublewrite_path#innodb_doublewrite_file) 来将双写缓冲区存储到一个分离的文件。 MySQL 5.6 版中你也可以创建外部的撤销表空间,所以它们可以放到自己的文件来替代存储到 ibdata1。可以看看这个[文档](http://dev.mysql.com/doc/refman/5.6/en/innodb-performance.html#innodb-undo-tablespace)。 ### 什么引起 ibdata1 增长迅速? 当 MySQL 出现问题通常我们需要执行的第一个命令是: ``` SHOW ENGINE INNODB STATUS/G ``` 这将展示给我们一些很有价值的信息。我们从\*\* TRANSACTION(事务)\*\*部分开始检查,然后我们会发现这个: ``` ---TRANSACTION 36E, ACTIVE 1256288 sec MySQL thread id 42, OS thread handle 0x7f8baaccc700, query id 7900290 localhost root show engine innodb status Trx read view will not see trx with id >= 36F, sees < 36F ``` 这是一个最常见的原因,一个14天前创建的相当老的事务。这个状态是**活动的**,这意味着 InnoDB 已经创建了一个数据的快照,所以需要在**撤销**日志中维护旧页面,以保障数据库的一致性视图,直到事务开始。如果你的数据库有大量的写入任务,那就意味着存储了大量的撤销页。 如果你找不到任何长时间运行的事务,你也可以监控INNODB STATUS 中的其他的变量,“**History list length(历史记录列表长度)**”展示了一些等待清除操作。这种情况下问题经常发生,因为清除线程(或者老版本的主线程)不能像这些记录进来的速度一样快地处理撤销。 ### 我怎么检查什么被存储到了 ibdata1 里了? 很不幸,MySQL 不提供查看什么被存储到 ibdata1 共享表空间的信息,但是有两个工具将会很有帮助。第一个是马克·卡拉汉制作的一个修改版 innochecksum ,它发布在[这个漏洞报告](http://bugs.mysql.com/bug.php?id=57611)里。 它相当易于使用: ``` # ./innochecksum /var/lib/mysql/ibdata1 0 bad checksum 13 FIL_PAGE_INDEX 19272 FIL_PAGE_UNDO_LOG 230 FIL_PAGE_INODE 1 FIL_PAGE_IBUF_FREE_LIST 892 FIL_PAGE_TYPE_ALLOCATED 2 FIL_PAGE_IBUF_BITMAP 195 FIL_PAGE_TYPE_SYS 1 FIL_PAGE_TYPE_TRX_SYS 1 FIL_PAGE_TYPE_FSP_HDR 1 FIL_PAGE_TYPE_XDES 0 FIL_PAGE_TYPE_BLOB 0 FIL_PAGE_TYPE_ZBLOB 0 other 3 max index_id ``` 全部的 20608 中有 19272 个撤销日志页。**这占用了表空间的 93%**。 第二个检查表空间内容的方式是杰里米·科尔制作的 [InnoDB Ruby 工具](https://github.com/jeremycole/innodb_ruby)。它是个检查 InnoDB 的内部结构的更先进的工具。例如我们可以使用 space-summary 参数来得到每个页面及其数据类型的列表。我们可以使用标准的 Unix 工具来统计**撤销日志**页的数量: ``` # innodb_space -f /var/lib/mysql/ibdata1 space-summary | grep UNDO_LOG | wc -l 19272 ``` 尽管这种特殊的情况下,innochedcksum 更快更容易使用,但是我推荐你使用杰里米的工具去了解更多的 InnoDB 内部的数据分布及其内部结构。 好,现在我们知道问题所在了。下一个问题: ### 我该怎么解决问题? 这个问题的答案很简单。如果你还能提交语句,就做吧。如果不能的话,你必须要杀掉线程开始回滚过程。那将停止 ibdata1 的增长,但是很显然,你的软件会出现漏洞,有些人会遇到错误。现在你知道如何去鉴定问题所在,你需要使用你自己的调试工具或普通的查询日志来找出谁或者什么引起的问题。 如果问题发生在清除线程,解决方法通常是升级到新版本,新版中使用一个独立的清除线程替代主线程。更多信息查看该[文档](http://dev.mysql.com/doc/innodb/1.1/en/innodb-improved-purge-scheduling.html) ### 有什么方法回收已使用的空间么? 没有,目前还没有一个容易并且快速的方法。InnoDB 表空间从不收缩...参见[10 年之久的漏洞报告](http://bugs.mysql.com/bug.php?id=1341),最新更新自詹姆斯·戴(谢谢): 当你删除一些行,这个页被标为已删除稍后重用,但是这个空间从不会被回收。唯一的方法是使用新的 ibdata1 启动数据库。要做这个你应该需要使用 mysqldump 做一个逻辑全备份,然后停止 MySQL 并删除所有数据库、ib\_logfile\**、*ibdata1\* 文件。当你再启动 MySQL 的时候将会创建一个新的共享表空间。然后恢复逻辑备份。 ### 总结 当 ibdata1 文件增长太快,通常是 MySQL 里长时间运行的被遗忘的事务引起的。尝试去解决问题越快越好(提交或者杀死事务),因为不经过痛苦缓慢的 mysqldump 过程,你就不能回收浪费的磁盘空间。 也是非常推荐监控数据库以避免这些问题。我们的 [MySQL 监控插件](https://www.percona.com/software/percona-monitoring-plugins)包括一个 Nagios 脚本,如果发现了一个太老的运行事务它可以提醒你。 --- via: <https://www.percona.com/blog/2013/08/20/why-is-the-ibdata1-file-continuously-growing-in-mysql/> 作者:[Miguel Angel Nieto](https://www.percona.com/blog/author/miguelangelnieto/) 译者:[wyangsun](https://github.com/wyangsun) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,830
Linux有问必答:如何在 Ubuntu 15.04 的 GNOME 终端中开启多个标签
http://ask.xmodulo.com/open-multiple-tabs-gnome-terminal-ubuntu.html
2015-07-16T13:46:00
[ "终端" ]
/article-5830-1.html
> > **问**: 我以前可以在我的 Ubuntu 台式机中的 gnome-terminal 中开启多个标签。但升到 Ubuntu 15.04 后,我就无法再在 gnome-terminal 窗口中打开新标签了。要怎样做才能在 Ubuntu 15.04 的 gnome-terminal 中打开标签呢? > > > 在 Ubuntu 14.10 或之前的版本中,gnome-terminal 允许你在终端窗口中开启一个新标签或一个终端窗口。但从 Ubuntu 15.04开始,gnome-terminal 移除了“新标签”选项。这实际上并不是一个 bug,而是一个合并新标签和新窗口的举措。GNOME 3.12 引入了[单独的“开启终端”选项](http://worldofgnome.org/opening-a-new-terminal-tabwindow-in-gnome-3-12/)。开启新终端标签的功能从终端菜单移动到了首选项中。 ![](/data/attachment/album/201507/16/004715f5izdagnftdug7es.jpg) ### 偏好设置中的开启新标签 要在 Ubuntu 15.04 的 gnome-terminal中开启新标签,选择“编辑” -> “首选项",并把“开启新终端:窗口”改为“开启新终端:标签”。 ![](/data/attachment/album/201507/16/004716pb0b4ydnnuioy5po.jpg) 如果现在你通过菜单开启新终端,就会显示在当前终端中的一个新标签页中。 ![](/data/attachment/album/201507/16/004719o83w4hhypjfpu5oy.jpg) ### 通过键盘快捷键开启标签 如果你不想更改首选项,你可以按住 临时改变设置。比如,在默认情况下,在点击“新终端”的同时按住 ,终端就会在新标签中打开而不是开启新的终端。 另外,你还可以使用键盘快捷键 <Shift+Ctrl+T> 在终端中开启新标签。 在我看来,gnome-terminal 此番在 UI 上的改变并非一个进步。比如,你无法自定义终端中各个标签的标题了。当你在一个终端中打开了多个标签时,这个功能会很有用。而如果终端名称保持默认标题(并不断变长)时,你就不能在有限的标题空间里看见终端的标题了。希望能被尽早加入这个功能。 --- via: <http://ask.xmodulo.com/open-multiple-tabs-gnome-terminal-ubuntu.html> 作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[KevSJ](https://github.com/KevSJ) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /open-multiple-tabs-gnome-terminal-ubuntu.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c6710>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)"))
null
5,838
Linux_Logo – 输出彩色 ANSI Linux 发行版徽标的命令行工具
http://www.tecmint.com/linux_logo-tool-to-print-color-ansi-logos-of-linux/
2015-07-17T15:48:00
[ "linux_logo", "Screenfetch" ]
https://linux.cn/article-5838-1.html
linuxlogo(或叫 linux\_logo)是一款在Linux命令行下用彩色 ANSI 代码生成附带有系统信息的发行版徽标的工具。 ![Linux_Logo – 输出彩色 ANSI Linux 发行版徽标](/data/attachment/album/201507/17/154832dj8btojjd2ibb1yo.png) *Linux\_Logo – 输出彩色 ANSI Linux 发行版徽标* 这个小工具可以从 /proc 文件系统中获取系统信息并可以显示包括主机上安装的发行版在内的很多发行版的徽标。 与徽标一同显示的系统信息包括 : Linux 内核版本,最近一次编译Linux内核的时间,处理器/核心数量,速度,制造商,以及哪一代处理器。它还能显示总共的物理内存大小。 无独有偶,screenfetch是一个拥有类似功能的工具,它也能显示发行版徽标,同时还提供更加详细美观的系统信息。我们之前已经介绍过这个工具,你可以参考一下链接: * [screenFetch: 命令行信息截图工具](/article-1947-1.html) linux\_logo 和 Screenfetch 并完全一样。尽管 screenfetch 的输出较为整洁并提供更多细节, 但 linux\_logo 则提供了更多的彩色 ANSI 图标, 并且提供了格式化输出的选项。 linux\_logo 主要使用C语言编写并将 linux 徽标呈现在 X 窗口系统中因此需要安装图形界面 X11 或 X 系统(LCTT 译注:此处应是错误的。按说不需要任何图形界面支持,并且译者从其官方站 <http://www.deater.net/weave/vmwprod/linux_logo> 也没找到任何相关 X11的信息)。这个软件使用GNU 2.0协议。 本文中,我们将使用以下环境测试 linux\_logo 工具。 ``` 操作系统 : Debian Jessie 处理器 : i3 / x86_64 ``` ### 在 Linux 中安装 Linux Logo工具 **1. linuxlogo软件包 ( 5.11 稳定版) 可通过如下方式使用 apt, yum 或 dnf 在所有发行版中使用默认的软件仓库进行安装** ``` # apt-get install linuxlogo [用于基于 Apt 的系统] (译者注:Ubuntu中,该软件包名为linuxlogo) # yum install linux_logo [用于基于 Yum 的系统] # dnf install linux_logo [用于基于 Dnf 的系统] 或 # dnf install linux_logo.x86_64 [用于 64 位系统] ``` **2. 装好linuxlogo软件包之后,你可以使用命令 `linuxlogo` 来获取你当前使用的发行版的默认徽标..** ``` # linux_logo 或 # linuxlogo ``` ![获取默认系统徽标](/data/attachment/album/201507/17/154834sspbmexumc1sxeuc.png) *获取默认系统徽标* **3. 使用 `[-a]` 选项可以输出没有颜色的徽标。当在黑白终端里使用 linux\_logo 时,这个选项会很有用。** ``` # linux_logo -a ``` ![黑白 Linux 徽标](/data/attachment/album/201507/17/154835n9ygg9dqldjxgmyj.png) *黑白 Linux 徽标* **4. 使用 `[-l]` 选项可以仅输出徽标而不包含系统信息。** ``` # linux_logo -l ``` ![输出发行版徽标](/data/attachment/album/201507/17/154838b188gd8t848fgnmn.png) *输出发行版徽标* **5. `[-u]` 选项可以显示系统运行时间。** ``` # linux_logo -u ``` ![输出系统运行时间](/data/attachment/album/201507/17/154842uhsrllet6o1xze0i.png) *输出系统运行时间* **6. 如果你对系统平均负载感兴趣,可以使用 `[-y]` 选项。你可以同时使用多个选项。** ``` # linux_logo -y ``` ![输出系统平均负载](/data/attachment/album/201507/17/154845cxif4430ifg6i34g.png) *输出系统平均负载* 如需查看更多选项并获取相关帮助,你可以使用如下命令。 ``` # linux_logo -h ``` ![Linuxlogo 选项及帮助](/data/attachment/album/201507/17/154852edcslzsp6iri5spc.png) *Linuxlogo选项及帮助* **7. 此工具内置了很多不同发行版的徽标。你可以使用 `[-L list]` 选项查看在这些徽标的列表。** ``` # linux_logo -L list ``` ![Linux 徽标列表](/data/attachment/album/201507/17/154856adjwmz2xvzjh76d7.png) *Linux 徽标列表* 如果你想输出这个列表中的任意徽标,可以使用 `-L NUM` 或 `-L NAME` 来显示想要选中的图标。 * -L NUM – 会输出列表中序号为 NUM 的图标 (不推荐). * -L NAME – 会输出列表中名为 NAME 的图标。 例如,如果想要显示 AIX 的徽标,你可以使用如下命令 ``` # linux_logo -L 1 或 # linux_logo -L aix ``` ![输出 AIX 图标](/data/attachment/album/201507/17/154901h90aaoaa9s8n80te.png) *输出 AIX 图标* **注**: 命令中的使用 `-L 1` 是因为 AIX 徽标在列表中的编号是1,而使用 `-L aix` 则是因为 AIX 徽标在列表中的名称为 aix 同样的,你还可以使用这些选项输出任何图标,以下是一些例子.. ``` # linux_logo -L 27 # linux_logo -L 21 ``` ![各种 Linux 徽标](/data/attachment/album/201507/17/154906gdlro7lcu5z6r9rv.png) *各种 Linux 徽标* 你可以通过徽标对应的编号或名字使用任意徽标。 ### 一些使用 Linux\_logo 的建议和提示 **8. 你可以在登录界面输出你的 Linux 发行版徽标。要输出默认徽标,你可以在 `~/.bashrc`文件的最后添加以下内容。** ``` if [ -f /usr/bin/linux_logo ]; then linux_logo; fi ``` **注**: 如没有`~/.bashrc` 文件,你需要在当前用户的 home 目录下新建一个。 **9. 在添加以上内容后,你只需要注销并重新登录即可看到你的发行版的默认徽标** ![Print Logo on User Login](/data/attachment/album/201507/17/154909s1wjjjcojjmnejje.png) *在用户登录时输出徽标* 其实你也可以在登录后输出任意图标,只需加入以下内容: ``` if [ -f /usr/bin/linux_logo ]; then linux_logo -L num; fi ``` **重要**: 不要忘了将 num 替换成你想使用的图标。 **10. 你也能直接指定徽标所在的位置来显示你自己的徽标。** ``` # linux_logo -D /path/to/ASCII/logo ``` **11. 在远程登录时输出图标。** ``` # /usr/local/bin/linux_logo > /etc/issue.net ``` 如果你想使用 ASCII 徽标而不是含有颜色的 ANSI 徽标,则使用如下命令 ``` # /usr/local/bin/linux_logo -a > /etc/issue.net ``` **12. 创建一个 Linux 上的端口 - 用于回应连接的端口。要创建 **Linux** 端口, 则需在 /etc/services 文件中加入以下内容** ``` penguin 4444/tcp penguin ``` 这里的 `4444` 是一个未被任何其他资源使用的空闲端口。你也可以使用其他端口。你还需要在 /etc/inetd.conf中加入以下内容: ``` penguin stream tcp nowait root /usr/local/bin/linux_logo ``` 并使用以下命令重启 inetd 服务 ``` # killall -HUP inetd ``` (LCTT 译注:然后你就可以远程或本地连接到这个端口,并显示这个徽标了。) linux\_logo 还可以用做启动脚本来愚弄攻击者或对你朋友使用恶作剧。这是一个我经常在我的脚本中用来获取不同发行版输出的好工具。 试过一次后,你就不会忘记的。让我们知道你对这个工具的想法及它对你的作用吧。 不要忘记给评论、点赞或分享! --- via: <http://www.tecmint.com/linux_logo-tool-to-print-color-ansi-logos-of-linux/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[KevinSJ](https://github.com/KevinSJ) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,840
PHP 7.0 升级备注
https://github.com/php/php-src/blob/php-7.0.0beta1/UPGRADING
2015-07-20T07:31:00
[ "PHP", "PHP 7" ]
https://linux.cn/article-5840-1.html
PHP 7.0.0 beta1 发布了,在带来了引人注目的性能提升的同时,也带来了不少语言特性方面的改变。以下由 LCTT 翻译自对官方的[升级备注](https://github.com/php/php-src/blob/php-7.0.0beta1/UPGRADING),虽然目前还不是正式发布版,不过想必距离正式发布的特性已经差别不大了。(本文会持续追踪更新) ![](/data/attachment/album/201507/18/180247oz05zwm8py7mw8zq.png) 1. 向后不兼容的变化 ----------- ### 语言变化 #### 变量处理的变化 * 间接变量、属性和方法引用现在以从左到右的语义进行解释。一些例子: ``` $$foo['bar']['baz'] // 解释做 ($$foo)['bar']['baz'] $foo->$bar['baz'] // 解释做 ($foo->$bar)['baz'] $foo->$bar['baz']() // 解释做 ($foo->$bar)['baz']() Foo::$bar['baz']() // 解释做 (Foo::$bar)['baz']() ``` 要恢复以前的行为,需要显式地加大括号: ``` ${$foo['bar']['baz']} $foo->{$bar['baz']} $foo->{$bar['baz']}() Foo::{$bar['baz']}() ``` * 全局关键字现在只接受简单变量。像以前的 ``` global $$foo->bar; ``` 现在要求如下写法: ``` global ${$foo->bar}; ``` * 变量或函数调用的前后加上括号不再有任何影响。例如下列代码,函数调用结果以引用的方式传给一个函数 ``` function getArray() { return [1, 2, 3]; } $last = array_pop(getArray()); // Strict Standards: 只有变量可以用引用方式传递 $last = array_pop((getArray())); // Strict Standards: 只有变量可以用引用方式传递 ``` 现在无论是否使用括号,都会抛出一个严格标准错误。以前在第二种调用方式下不会有提示。 * 数组元素或对象属性自动安装引用顺序创建,现在的结果顺序将不同。例如: ``` $array = []; $array["a"] =& $array["b"]; $array["b"] = 1; var_dump($array); ``` 现在结果是 ["a" => 1, "b" => 1],而以前的结果是 ["b" => 1, "a" => 1]。 相关的 RFC: * <https://wiki.php.net/rfc/uniform_variable_syntax> * <https://wiki.php.net/rfc/abstract_syntax_tree> #### list() 的变化 * list() 不再以反序赋值,例如: ``` list($array[], $array[], $array[]) = [1, 2, 3]; var_dump($array); ``` 现在结果是 $array == [1, 2, 3] ,而不是 [3, 2, 1]。注意仅赋值**顺序**变化了,而赋值仍然一致(LCTT 译注:即以前的 list()行为是从后面的变量开始逐一赋值,这样对与上述用法就会产生 [3,2,1] 这样的结果了。)。例如,类似如下的常规用法 ``` list($a, $b, $c) = [1, 2, 3]; // $a = 1; $b = 2; $c = 3; ``` 仍然保持当前的行为。 * 不再允许对空的 list() 赋值。如下全是无效的: ``` list() = $a; list(,,) = $a; list($x, list(), $y) = $a; ``` * list() 不再支持对字符串的拆分(以前也只在某些情况下支持)。如下代码: ``` $string = "xy"; list($x, $y) = $string; ``` 现在的结果是: $x == null 和 $y == null (没有提示),而以前的结果是: $x == "x" 和 $y == "y" 。此外, list() 现在总是可以处理实现了 ArrayAccess 的对象,例如: ``` list($a, $b) = (object) new ArrayObject([0, 1]); ``` 现在的结果是: $a == 0 和 $b == 1。 以前 $a 和 $b 都是 null。 相关 RFC: * <https://wiki.php.net/rfc/abstract_syntax_tree#changes_to_list> * <https://wiki.php.net/rfc/fix_list_behavior_inconsistency> #### foreach 的变化 * foreach() 迭代不再影响数组内部指针,数组指针可通过 current()/next() 等系列的函数访问。例如: ``` $array = [0, 1, 2]; foreach ($array as &$val) { var_dump(current($array)); } ``` 现在将指向值 int(0) 三次。以前的输出是 int(1)、int(2) 和 bool(false)。 * 在对数组按值迭代时,foreach 总是在对数组副本进行操作,在迭代中任何对数组的操作都不会影响到迭代行为。例如: ``` $array = [0, 1, 2]; $ref =& $array; // Necessary to trigger the old behavior foreach ($array as $val) { var_dump($val); unset($array[1]); } ``` 现在将打印出全部三个元素 (0 1 2),而以前第二个元素 1 会跳过 (0 2)。 * 在对数组按引用迭代时,对数组的修改将继续会影响到迭代。不过,现在 PHP 在使用数字作为键时可以更好的维护数组内的位置。例如,在按引用迭代过程中添加数组元素: ``` $array = [0]; foreach ($array as &$val) { var_dump($val); $array[1] = 1; } ``` 现在迭代会正确的添加了元素。如上代码输出是 "int(0) int(1)",而以前只是 "int(0)"。 * 对普通(不可遍历的)对象按值或按引用迭代的行为类似于对数组进行按引用迭代。这符合以前的行为,除了如上一点所述的更精确的位置管理的改进。 * 对可遍历对象的迭代行为保持不变。 相关 RFC: <https://wiki.php.net/rfc/php7_foreach> #### 参数处理的变化 * 不能定义两个同名的函数参数。例如,下面的方法将会触发编译时错误: ``` public function foo($a, $b, $unused, $unused) { // ... } ``` 如上的代码应该修改使用不同的参数名,如: ``` public function foo($a, $b, $unused1, $unused2) { // ... } ``` * func\_get\_arg() 和 func\_get\_args() 函数不再返回传递给参数的原始值,而是返回其当前值(也许会被修改)。例如: ``` function foo($x) { $x++; var_dump(func_get_arg(0)); } foo(1); ``` 将会打印 "2" 而不是 "1"。代码应该改成仅在调用 func\_get\_arg(s) 后进行修改操作。 ``` function foo($x) { var_dump(func_get_arg(0)); $x++; } ``` 或者应该避免修改参数: ``` function foo($x) { $newX = $x + 1; var_dump(func_get_arg(0)); } ``` * 类似的,异常回溯也不再显示传递给函数的原始值,而是修改后的值。例如: ``` function foo($x) { $x = 42; throw new Exception; } foo("string"); ``` 现在堆栈跟踪的结果是: ``` Stack trace: #0 file.php(4): foo(42) #1 {main} ``` 而以前是: ``` Stack trace: #0 file.php(4): foo('string') #1 {main} ``` 这并不会影响到你的代码的运行时行为,值得注意的是在调试时会有所不同。 同样的限制也会影响到 debug\_backtrace() 及其它检查函数参数的函数。 相关 RFC: <https://wiki.php.net/phpng> #### 整数处理的变化 * 无效的八进制表示(包含大于7的数字)现在会产生编译错误。例如,下列代码不再有效: ``` $i = 0781; // 8 不是一个有效的八进制数字! ``` 以前,无效的数字(以及无效数字后的任何数字)会简单的忽略。以前如上 $i 的值是 7,因为后两位数字会被悄悄丢弃。 * 二进制以负数镜像位移现在会抛出一个算术错误: ``` var_dump(1 >> -1); // ArithmeticError: 以负数进行位移 ``` * 向左位移的位数超出了整型宽度时,结果总是 0。 ``` var_dump(1 << 64); // int(0) ``` 以前上述代码的结果依赖于所用的 CPU 架构。例如,在 x86(包括 x86-64) 上结果是 int(1),因为其位移操作数在范围内。 * 类似的,向右位移的位数超出了整型宽度时,其结果总是 0 或 -1 (依赖于符号): ``` var_dump(1 >> 64); // int(0) var_dump(-1 >> 64); // int(-1) ``` 相关 RFC: <https://wiki.php.net/rfc/integer_semantics> #### 字符串处理的变化 * 包含十六进制数字的字符串不会再被当做数字,也不会被特殊处理。参见例子中的新行为: ``` var_dump("0x123" == "291"); // bool(false) (以前是 true) var_dump(is_numeric("0x123")); // bool(false) (以前是 true) var_dump("0xe" + "0x1"); // int(0) (以前是 16) var_dump(substr("foo", "0x1")); // string(3) "foo" (以前是 "oo") // 注意:遇到了一个非正常格式的数字 ``` filter\_var() 可以用来检查一个字符串是否包含了十六进制数字,或这个字符串是否能转换为整数: ``` $str = "0xffff"; $int = filter_var($str, FILTER_VALIDATE_INT, FILTER_FLAG_ALLOW_HEX); if (false === $int) { throw new Exception("Invalid integer!"); } var_dump($int); // int(65535) ``` * 由于给双引号字符串和 HERE 文档增加了 Unicode 码点转义格式(Unicode Codepoint Escape Syntax), 所以带有无效序列的 "\u{" 现在会造成错误: ``` $str = "\u{xyz}"; // 致命错误:无效的 UTF-8 码点转义序列 ``` 要避免这种情况,需要转义开头的反斜杠: ``` $str = "\\u{xyz}"; // 正确 ``` 不过,不跟随 { 的 "\u" 不受影响。如下代码不会生成错误,和前面的一样工作: ``` $str = "\u202e"; // 正确 ``` 相关 RFC: * <https://wiki.php.net/rfc/remove_hex_support_in_numeric_strings> * <https://wiki.php.net/rfc/unicode_escape> #### 错误处理的变化 * 现在有两个异常类: Exception 和 Error 。这两个类都实现了一个新接口: Throwable 。在异常处理代码中的类型指示也许需要修改来处理这种情况。 * 一些致命错误和可恢复的致命错误现在改为抛出一个 Error 。由于 Error 是一个独立于 Exception 的类,这些异常不会被已有的 try/catch 块捕获。 可恢复的致命错误被转换为一个异常,所以它们不能在错误处理里面悄悄的忽略。部分情况下,类型指示失败不再能忽略。 * 解析错误现在会生成一个 Error 扩展的 ParseError 。除了以前的基于返回值 / error*get*last() 的处理,对某些可能无效的代码的 eval() 的错误处理应该改为捕获 ParseError 。 * 内部类的构造函数在失败时总是会抛出一个异常。以前一些构造函数会返回 NULL 或一个不可用的对象。 * 一些 E\_STRICT 提示的错误级别改变了。 相关 RFC: * <https://wiki.php.net/rfc/engine_exceptions_for_php7> * <https://wiki.php.net/rfc/throwable-interface> * <https://wiki.php.net/rfc/internal_constructor_behaviour> * <https://wiki.php.net/rfc/reclassify_e_strict> #### 其它的语言变化 * 静态调用一个不兼容的 $this 上下文的非静态调用的做法不再支持。这种情况下,$this 是没有定义的,但是对它的调用是允许的,并带有一个废弃提示。例子: ``` class A { public function test() { var_dump($this); } } // 注意:没有从类 A 进行扩展 class B { public function callNonStaticMethodOfA() { A::test(); } } (new B)->callNonStaticMethodOfA(); // 废弃:非静态方法 A::test() 不应该被静态调用 // 提示:未定义的变量 $this NULL ``` 注意,这仅出现在来自不兼容上下文的调用上。如果类 B 扩展自类 A ,调用会被允许,没有任何提示。 * 不能使用下列类名、接口名和特殊名(大小写敏感): ``` bool int float string null false true ``` 这用于 class/interface/trait 声明、 class\_alias() 和 use 语句中。 此外,下列类名、接口名和特殊名保留做将来使用,但是使用时尚不会抛出错误: ``` resource object mixed numeric ``` * yield 语句结构当用在一个表达式上下文时,不再要求括号。它现在是一个优先级在 “print” 和 “=>” 之间的右结合操作符。在某些情况下这会导致不同的行为,例如: ``` echo yield -1; // 以前被解释如下 echo (yield) - 1; // 现在被解释如下 echo yield (-1); yield $foo or die; // 以前被解释如下 yield ($foo or die); // 现在被解释如下 (yield $foo) or die; ``` 这种情况可以通过增加括号来解决。 * 移除了 ASP (<%) 和 script (<script language=php>) 标签。 RFC: <https://wiki.php.net/rfc/remove_alternative_php_tags> * 不支持以引用的方式对 new 的结果赋值。 * 不支持对一个来自非兼容的 $this 上下文的非静态方法的域内调用。细节参见: <https://wiki.php.net/rfc/incompat_ctx> 。 * 不支持 ini 文件中的 # 风格的备注。使用 ; 风格的备注替代。 * $HTTP\_RAW\_POST\_DATA 不再可用,使用 php://input 流替代。 ### 标准库的变化 * call\_user\_method() 和 call\_user\_method\_array() 不再存在。 * 在一个输出缓冲区被创建在输出缓冲处理器里时, ob\_start() 不再发出 E\_ERROR,而是 E\_RECOVERABLE\_ERROR。 * 改进的 zend\_qsort (使用 hybrid 排序算法)性能更好,并改名为 zend\_sort。 * 增加静态排序算法 zend\_insert\_sort。 * 移除 fpm-fcgi 的 dl() 函数。 * setcookie() 如果 cookie 名为空会触发一个 WARNING ,而不是发出一个空的 set-cookie 头。 ### 其它 * Curl: + 去除对禁用 CURLOPT\_SAFE\_UPLOAD 选项的支持。所有的 curl 文件上载必须使用 curl\_file / CURLFile API。 * Date: + 从 mktime() 和 gmmktime() 中移除 $is\_dst 参数 * DBA + 如果键也没有出现在 inifile 处理器中,dba\_delete() 现在会返回 false。 * GMP + 现在要求 libgmp 版本 4.2 或更新。 + gmp\_setbit() 和 gmp\_clrbit() 对于负指标返回 FALSE,和其它的 GMP 函数一致。 * Intl: + 移除废弃的别名 datefmt\_set\_timezone\_id() 和 IntlDateFormatter::setTimeZoneID()。替代使用 datefmt\_set\_timezone() 和 IntlDateFormatter::setTimeZone()。 * libxml: + 增加 LIBXML\_BIGLINES 解析器选项。从 libxml 2.9.0 开始可用,并增加了在错误报告中行号大于 16 位的支持。 * Mcrypt + 移除等同于 mcrypt\_generic\_deinit() 的废弃别名 mcrypt\_generic\_end()。 + 移除废弃的 mcrypt\_ecb()、 mcrypt\_cbc()、 mcrypt\_cfb() 和 mcrypt\_ofb() 函数,它们等同于使用 MCRYPT\_MODE\_\* 标志的 mcrypt\_encrypt() 和 mcrypt\_decrypt() 。 * Session + session\_start() 以数组方式接受所有的 INI 设置。例如, ['cache\_limiter'=>'private'] 会设置 session.cache\_limiter=private 。也支持 'read\_and\_close' 以在读取数据后立即关闭会话数据。 + 会话保存处理器接受使用 validate\_sid() 和 update\_timestamp() 来校验会话 ID 是否存在、更新会话时间戳。对旧式的用户定义的会话保存处理器继续兼容。 + 增加了 SessionUpdateTimestampHandlerInterface 。 validateSid()、 updateTimestamp() 定义在接口里面。 + session.lazy\_write(默认是 On) 的 INI 设置支持仅在会话数据更新时写入。 * Opcache + 移除 opcache.load\_comments 配置语句。现在文件内备注载入无成本,并且总是启用的。 * OpenSSL: + 移除 "rsa\_key\_size" SSL 上下文选项,按给出的协商的加密算法自动设置适当的大小。 + 移除 "CN\_match" 和 "SNI\_server\_name" SSL 上下文选项。使用自动侦测或 "peer\_name" 选项替代。 * PCRE: + 移除对 /e (PREG\_REPLACE\_EVAL) 修饰符的支持,使用 preg\_replace\_callback() 替代。 * PDO\_pgsql: + 移除 PGSQL\_ATTR\_DISABLE\_NATIVE\_PREPARED\_STATEMENT 属性,等同于 ATTR\_EMULATE\_PREPARES。 * Standard: + 移除 setlocale() 中的字符串类目支持。使用 LC\_\* 常量替代。 instead. + 移除 set\_magic\_quotes\_runtime() 及其别名 magic\_quotes\_runtime()。 * JSON: + 拒绝 json\_decode 中的 RFC 7159 不兼容数字格式 - 顶层 (07, 0xff, .1, -.1) 和所有层的 ([1.], [1.e1]) + 用一个参数调用 json\_decode 等价于用空的 PHP 字符串或值调用,转换为空字符串(NULL, FALSE)的结果是 JSON 格式错误。 * Stream: + 移除 set\_socket\_blocking() ,等同于其别名 stream\_set\_blocking()。 * XSL: + 移除 xsl.security\_prefs ini 选项,使用 XsltProcessor::setSecurityPrefs() 替代。 2. 新功能 ------ * Core + 增加了组式 use 声明。 (RFC: <https://wiki.php.net/rfc/group_use_declarations>) + 增加了 null 合并操作符 (??)。 (RFC: <https://wiki.php.net/rfc/isset_ternary>) + 在 64 位架构上支持长度 >= 2<sup> 31</sup> 字节的字符串。 + 增加了 Closure::call() 方法(仅工作在用户侧的类)。 + 在双引号字符串和 here 文档中增加了 \u{xxxxxx} Unicode 码点转义格式。 + define() 现在支持数组作为常量值,修复了一个当 define() 还不支持数组常量值时的疏忽。 + 增加了比较操作符 (<=>),即太空船操作符。 (RFC: <https://wiki.php.net/rfc/combined-comparison-operator>) + 为委托生成器添加了类似协程的 yield from 操作符。 (RFC: <https://wiki.php.net/rfc/generator-delegation>) + 保留的关键字现在可以用在几种新的上下文中。 (RFC: <https://wiki.php.net/rfc/context_sensitive_lexer>) + 增加了标量类型的声明支持,并可以使用 declare(strict\_types=1) 的声明严格模式。 (RFC: <https://wiki.php.net/rfc/scalar_type_hints_v5>) + 增加了对加密级安全的用户侧的随机数发生器的支持。 (RFC: <https://wiki.php.net/rfc/easy_userland_csprng>) * Opcache + 增加了基于文件的二级 opcode 缓存(实验性——默认禁用)。要启用它,PHP 需要使用 --enable-opcache-file 配置和构建,然后 opcache.file\_cache=<DIR> 配置指令就可以设置在 php.ini 中。二级缓存也许可以提升服务器重启或 SHM 重置时的性能。此外,也可以设置 opcache.file\_cache\_only=1 来使用文件缓存而根本不用 SHM(也许对于共享主机有用);设置 opcache.file\_cache\_consistency\_checks=0 来禁用文件缓存一致性检查,以加速载入过程,有安全风险。 * OpenSSL + 当用 OpenSSL 1.0.2 及更新构建时,增加了 "alpn\_protocols" SSL 上下文选项来允许加密的客户端/服务器流使用 ALPN TLS 扩展去协商替代的协议。协商后的协议信息可以通过 stream\_get\_meta\_data() 输出访问。 * Reflection + 增加了一个 ReflectionGenerator 类(yield from Traces,当前文件/行等等)。 + 增加了一个 ReflectionType 类来更好的支持新的返回类型和标量类型声明功能。新的 ReflectionParameter::getType() 和 ReflectionFunctionAbstract::getReturnType() 方法都返回一个 ReflectionType 实例。 * Stream + 添加了新的仅用于 Windows 的流上下文选项以允许阻塞管道读取。要启用该功能,当创建流上下文时,传递 array("pipe" => array("blocking" => true)) 。要注意的是,该选项会导致管道缓冲区的死锁,然而它在几个命令行场景中有用。 3. SAPI 模块的变化 ------------- * FPM + 修复错误 #65933 (不能设置超过1024字节的配置行)。 + Listen = port 现在监听在所有地址上(IPv6 和 IPv4 映射的)。 4. 废弃的功能 -------- * Core + 废弃了 PHP 4 风格的构建函数(即构建函数名必须与类名相同)。 + 废弃了对非静态方法的静态调用。 * OpenSSL + 废弃了 "capture\_session\_meta" SSL 上下文选项。 在流资源上活动的加密相关的元数据可以通过 stream\_get\_meta\_data() 的返回值访问。 5. 函数的变化 -------- * parse\_ini\_file(): * parse\_ini\_string(): + 添加了扫描模式 INI*SCANNER*TYPED 来得到 yield 类型的 .ini 值。 * unserialize(): + 给 unserialize 函数添加了第二个参数 (RFC: <https://wiki.php.net/rfc/secure_unserialize>) 来指定可接受的类: unserialize($foo, ["allowed\_classes" => ["MyClass", "MyClass2"]]); * proc\_open(): + 可以被 proc\_open() 使用的最大管道数以前被硬编码地限制为 16。现在去除了这个限制,只受限于 PHP 的可用内存大小。 + 新添加的仅用于 Windows 的配置选项 "blocking\_pipes" 可以用于强制阻塞对子进程管道的读取。这可以用于几种命令行应用场景,但是它会导致死锁。此外,这与新的流的管道上下文选项相关。 * array\_column(): + 该函数现在支持把对象数组当做二维数组。只有公开属性会被处理,对象里面使用 \_\_get() 的动态属性必须也实现 \_\_isset() 才行。 * stream\_context\_create() + 现在可以接受一个仅 Windows 可用的配置 array("pipe" => array("blocking" => <boolean>)) 来强制阻塞管道读取。该选项应该小心使用,该平台有可能导致管道缓冲区的死锁。 6. 新函数 ------ * GMP + 添加了 gmp\_random\_seed()。 * PCRE: + 添加了 preg\_replace\_callback\_array 函数。 (RFC: <https://wiki.php.net/rfc/preg_replace_callback_array>) * Standard . 添加了整数除法 intdiv() 函数。 . 添加了重置错误状态的 error\_clear\_last() 函数。 * Zlib: . 添加了 deflate\_init()、 deflate\_add()、 inflate\_init()、 inflate\_add() 函数来运行递增和流的压缩/解压。 7. 新的类和接口 --------- (暂无) 8. 移除的扩展和 SAPI -------------- * sapi/aolserver * sapi/apache * sapi/apache\_hooks * sapi/apache2filter * sapi/caudium * sapi/continuity * sapi/isapi * sapi/milter * sapi/nsapi * sapi/phttpd * sapi/pi3web * sapi/roxen * sapi/thttpd * sapi/tux * sapi/webjames * ext/mssql * ext/mysql * ext/sybase\_ct * ext/ereg 更多细节参见: * <https://wiki.php.net/rfc/removal_of_dead_sapis_and_exts> * <https://wiki.php.net/rfc/remove_deprecated_functionality_in_php7> 注意:NSAPI 没有在 RFC 中投票,不过它会在以后移除。这就是说,它相关的 SDK 今后不可用。 9. 扩展的其它变化 ---------- * Mhash + Mhash 今后不是一个扩展了,使用 function\_exists("mhash") 来检查器是否可用。 10. 新的全局常量 ---------- * Core . 添加 PHP\_INT\_MIN * Zlib + 添加的这些常量用于控制新的增量deflate\_add() 和 inflate\_add() 函数的刷新行为: + ZLIB\_NO\_FLUSH + ZLIB\_PARTIAL\_FLUSH + ZLIB\_SYNC\_FLUSH + ZLIB\_FULL\_FLUSH + ZLIB\_BLOCK + ZLIB\_FINISH * GD + 移除了 T1Lib 支持,这样由于对 T1Lib 的可选依赖,如下将来不可用:函数: + imagepsbbox() + imagepsencodefont() + imagepsextendedfont() + imagepsfreefont() + imagepsloadfont() + imagepsslantfont() + imagepstext()资源: + 'gd PS font' + 'gd PS encoding' 11. INI 文件处理的变化 --------------- * Core + 移除了 asp\_tags ini 指令。如果启用它会导致致命错误。 + 移除了 always\_populate\_raw\_post\_data ini 指令。 12. Windows 支持 -------------- * Core + 在 64 位系统上支持原生的 64 位整数。 + 在 64 位系统上支持大文件。 + 支持 getrusage()。 * ftp + 所带的 ftp 扩展总是共享库的。 + 对于 SSL 支持,取消了对 openssl 扩展的依赖,取而代之仅依赖 openssl 库。如果在编译时需要,会自动启用 ftp\_ssl\_connect()。 * odbc + 所带的 odbc 扩展总是共享库的。 13. 其它变化 -------- * Core + NaN 和 Infinity 转换为整数时总是 0,而不是未定义和平台相关的。 + 对非对象调用方法会触发一个可捕获错误,而不是致命错误;参见: <https://wiki.php.net/rfc/catchable-call-to-member-of-non-object> + zend\_parse\_parameters、类型提示和转换,现在总是用 "integer" 和 "float",而不是 "long" 和 "double"。 + 如果 ignore\_user\_abort 设置为 true ,对应中断的连接,输出缓存会继续工作。 --- via: <https://github.com/php/php-src/blob/php-7.0.0beta1/UPGRADING> 作者:[php](https://github.com/php) 译者:[wxy](https://github.com/wxy) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
200
OK
- [Notifications](/login?return_to=%2Fphp%2Fphp-src)You must be signed in to change notification settings - [Fork 7.7k](/login?return_to=%2Fphp%2Fphp-src) / # UPGRADING 771 lines (590 loc) · 26 KB / # UPGRADING 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600 601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 616 617 618 619 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649 650 651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699 700 701 702 703 704 705 706 707 708 709 710 711 712 713 714 715 716 717 718 719 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749 750 751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 $Id$ PHP X.Y UPGRADE NOTES 1. Backward Incompatible Changes 2. New Features 3. Changes in SAPI modules 4. Deprecated Functionality 5. Changed Functions 6. New Functions 7. New Classes and Interfaces 8. Removed Extensions and SAPIs 9. Other Changes to Extensions 10. New Global Constants 11. Changes to INI File Handling 12. Windows Support 13. Other Changes ======================================== 1. Backward Incompatible Changes ======================================== Language changes ================ Changes to variable handling ---------------------------- * Indirect variable, property and method references are now interpreted with left-to-right semantics. Some examples: $$foo['bar']['baz'] // interpreted as ($$foo)['bar']['baz'] $foo->$bar['baz'] // interpreted as ($foo->$bar)['baz'] $foo->$bar['baz']() // interpreted as ($foo->$bar)['baz']() Foo::$bar['baz']() // interpreted as (Foo::$bar)['baz']() To restore the previous behavior add explicit curly braces: ${$foo['bar']['baz']} $foo->{$bar['baz']} $foo->{$bar['baz']}() Foo::{$bar['baz']}() * The global keyword now only accepts simple variables. Instead of global $$foo->bar; it is now required to write the following: global ${$foo->bar}; * Parentheses around variables or function calls no longer have any influence on behavior. For example the following code, where the result of a function call is passed to a by-reference function function getArray() { return [1, 2, 3]; } $last = array_pop(getArray()); // Strict Standards: Only variables should be passed by reference $last = array_pop((getArray())); // Strict Standards: Only variables should be passed by reference will now throw a strict standards error regardless of whether parentheses are used. Previously no notice was generated in the second case. * Array elements or object properties that are automatically created during by-reference assignments will now result in a different order. For example $array = []; $array["a"] =& $array["b"]; $array["b"] = 1; var_dump($array); now results in the array ["a" => 1, "b" => 1], while previously the result was ["b" => 1, "a" => 1]; Relevant RFCs: * https://wiki.php.net/rfc/uniform_variable_syntax * https://wiki.php.net/rfc/abstract_syntax_tree Changes to list() ----------------- * list() will no longer assign variables in reverse order. For example list($array[], $array[], $array[]) = [1, 2, 3]; var_dump($array); will now result in $array == [1, 2, 3] rather than [3, 2, 1]. Note that only the **order** of the assignments changed, but the assigned values stay the same. E.g. a normal usage like list($a, $b, $c) = [1, 2, 3]; // $a = 1; $b = 2; $c = 3; will retain its current behavior. * Empty list() assignments are no longer allowed. As such all of the following are invalid: list() = $a; list(,,) = $a; list($x, list(), $y) = $a; * list() no longer supports unpacking strings (while previously this was only supported in some cases). The code $string = "xy"; list($x, $y) = $string; will now result in $x == null and $y == null (without notices) instead of $x == "x" and $y == "y". Furthermore list() is now always guaranteed to work with objects implementing ArrayAccess, e.g. list($a, $b) = (object) new ArrayObject([0, 1]); will now result in $a == 0 and $b == 1. Previously both $a and $b were null. Relevant RFCs: * https://wiki.php.net/rfc/abstract_syntax_tree#changes_to_list * https://wiki.php.net/rfc/fix_list_behavior_inconsistency Changes to foreach ------------------ * Iteration with foreach() no longer has any effect on the internal array pointer, which can be accessed through the current()/next()/etc family of functions. For example $array = [0, 1, 2]; foreach ($array as &$val) { var_dump(current($array)); } will now print the value int(0) three times. Previously the output was int(1), int(2) and bool(false). * When iterating arrays by-value, foreach will now always operate on a copy of the array, as such changes to the array during iteration will not influence iteration behavior. For example $array = [0, 1, 2]; $ref =& $array; // Necessary to trigger the old behavior foreach ($array as $val) { var_dump($val); unset($array[1]); } will now print all three elements (0 1 2), while previously the second element 1 was skipped (0 2). * When iterating arrays by-reference, modifications to the array will continue to influence the iteration. However PHP will now do a better job of maintaining a correct position in a number of cases. E.g. appending to an array during by-reference iteration $array = [0]; foreach ($array as &$val) { var_dump($val); $array[1] = 1; } will now iterate over the appended element as well. As such the output of this example will now be "int(0) int(1)", while previously it was only "int(0)". * Iteration of plain (non-Traversable) objects by-value or by-reference will behave like by-reference iteration of arrays. This matches the previous behavior apart from the more accurate position management mentioned in the previous point. * Iteration of Traversable objects remains unchanged. Relevant RFC: https://wiki.php.net/rfc/php7_foreach Changes to parameter handling ----------------------------- * It is no longer possible to define two function parameters with the same name. For example, the following method will trigger a compile-time error: public function foo($a, $b, $unused, $unused) { // ... } Code like this should be changed to use distinct parameter names, for example: public function foo($a, $b, $unused1, $unused2) { // ... } * The func_get_arg() and func_get_args() functions will no longer return the original value that was passed to a parameter and will instead provide the current value (which might have been modified). For example function foo($x) { $x++; var_dump(func_get_arg(0)); } foo(1); will now print "2" instead of "1". This code should be changed to either perform modifications only after calling func_get_arg(s) function foo($x) { var_dump(func_get_arg(0)); $x++; } or avoid modifying the parameters altogether: function foo($x) { $newX = $x + 1; var_dump(func_get_arg(0)); } * Similarly exception backtraces will no longer display the original value that was passed to a function and show the modified value instead. For example function foo($x) { $x = 42; throw new Exception; } foo("string"); will now result in the stack trace Stack trace: #0 file.php(4): foo(42) #1 {main} while previously it was: Stack trace: #0 file.php(4): foo('string') #1 {main} While this should not impact runtime behavior of your code, it is worthwhile to be aware of this difference for debugging purposes. The same limitation also applies to debug_backtrace() and other functions inspecting function arguments. Relevant RFC: https://wiki.php.net/phpng Changes to integer handling --------------------------- * Invalid octal literals (containing digits larger than 7) now produce compile errors. For example, the following is no longer valid: $i = 0781; // 8 is not a valid octal digit! Previously the invalid digits (and any following valid digits) were simply ignored. As such $i previously held the value 7, because the last two digits were silently discarded. * Bitwise shifts by negative numbers will now throw an ArithmeticError: var_dump(1 >> -1); // ArithmeticError: Bit shift by negative number * Left bitwise shifts by a number of bits beyond the bit width of an integer will always result in 0: var_dump(1 << 64); // int(0) Previously the behavior of this code was dependent on the used CPU architecture. For example on x86 (including x86-64) the result was int(1), because the shift operand was wrapped. * Similarly right bitwise shifts by a number of bits beyond the bit width of an integer will always result in 0 or -1 (depending on sign): var_dump(1 >> 64); // int(0) var_dump(-1 >> 64); // int(-1) Relevant RFC: https://wiki.php.net/rfc/integer_semantics Changes to string handling -------------------------- * Strings that contain hexadecimal numbers are no longer considered to be numeric and don't receive special treatment anymore. Some examples of the new behavior: var_dump("0x123" == "291"); // bool(false) (previously true) var_dump(is_numeric("0x123")); // bool(false) (previously true) var_dump("0xe" + "0x1"); // int(0) (previously 16) var_dump(substr("foo", "0x1")); // string(3) "foo" (previously "oo") // Notice: A non well formed numeric value encountered filter_var() can be used to check if a string contains a hexadecimal number or convert such a string into an integer: $str = "0xffff"; $int = filter_var($str, FILTER_VALIDATE_INT, FILTER_FLAG_ALLOW_HEX); if (false === $int) { throw new Exception("Invalid integer!"); } var_dump($int); // int(65535) * Due to the addition of the Unicode Codepoint Escape Syntax for double-quoted strings and heredocs, "\u{" followed by an invalid sequence will now result in an error: $str = "\u{xyz}"; // Fatal error: Invalid UTF-8 codepoint escape sequence To avoid this the leading backslash should be escaped: $str = "\\u{xyz}"; // Works fine However, "\u" without a following { is unaffected. As such the following code won't error and will work the same as before: $str = "\u202e"; // Works fine Relevant RFCs: * https://wiki.php.net/rfc/remove_hex_support_in_numeric_strings * https://wiki.php.net/rfc/unicode_escape Changes to error handling ------------------------- * There are now two exception classes: Exception and Error. Both classes implement a new interface Throwable. Type hints in exception handling code may need to be changed to account for this. * Some fatal errors and recoverable fatal errors now throw an Error instead. As Error is a separate class from Exception, these exceptions will not be caught by existing try/catch blocks. For the recoverable fatal errors which have been converted into an exception, it is no longer possible to silently ignore the error from an error handler. In particular, it is no longer possible to ignore type hint failures. * Parser errors now generate a ParseError that extends Error. Error handling for eval()s on potentially invalid code should be changed to catch ParseError in addition to the previous return value / error_get_last() based handling. * Constructors of internal classes will now always throw an exception on failure. Previously some constructors returned NULL or an unusable object. * The error level of some E_STRICT notices has been changed. Relevant RFCs: * https://wiki.php.net/rfc/engine_exceptions_for_php7 * https://wiki.php.net/rfc/throwable-interface * https://wiki.php.net/rfc/internal_constructor_behaviour * https://wiki.php.net/rfc/reclassify_e_strict Other language changes ---------------------- * Removed support for static calls to non-static calls form an incompatible $this context. In this case $this will not be defined, but the call will be allowed with a deprecation notice. An example: class A { public function test() { var_dump($this); } } // Note: Does NOT extend A class B { public function callNonStaticMethodOfA() { A::test(); } } (new B)->callNonStaticMethodOfA(); // Deprecated: Non-static method A::test() should not be called statically // Notice: Undefined variable $this NULL Note that this only applies to calls from an incompatible context. If class B extended from A the call would be allowed without any notices. * It is no longer possible to use the following class, interface and trait names (case-insensitive): bool int float string null false true This applies to class/interface/trait declarations, class_alias() and use statements. Furthermore the following class, interface and trait names are now reserved for future use, but do not yet throw an error when used: resource object mixed numeric * The yield language construct no longer requires parentheses when used in an expression context. It is now a right-associative operator with precedence between the "print" and "=>" operators. This can result in different behavior in some cases, for example: echo yield -1; // Was previously interpreted as echo (yield) - 1; // And is now interpreted as echo yield (-1); yield $foo or die; // Was previously interpreted as yield ($foo or die); // And is now interpreted as (yield $foo) or die; Such cases can always be resolved by adding additional parentheses. . Removed ASP (<%) and script (<script language=php>) tags. (RFC: https://wiki.php.net/rfc/remove_alternative_php_tags) . Removed support for assigning the result of new by reference. . Removed support for scoped calls to non-static methods from an incompatible $this context. See details in https://wiki.php.net/rfc/incompat_ctx. . Removed support for #-style comments in ini files. Use ;-style comments instead. . $HTTP_RAW_POST_DATA is no longer available. Use the php://input stream instead. Standard library changes ======================== . call_user_method() and call_user_method_array() no longer exists. . ob_start() no longer issues an E_ERROR, but instead an E_RECOVERABLE_ERROR in case an output buffer is created in an output buffer handler. . Improved zend_qsort(using hybrid sorting algo) for better performance, and also renamed zend_qsort to zend_sort. . Added stable sorting algo zend_insert_sort. . Removed dl() function on fpm-fcgi. . setcookie() with an empty cookie name now issues a WARNING and doesn't send an empty set-cookie header line anymore. Other ===== - Curl: . Removed support for disabling the CURLOPT_SAFE_UPLOAD option. All curl file uploads must use the curl_file / CURLFile APIs. - Date: . Removed $is_dst parameter from mktime() and gmmktime(). - DBA . dba_delete() now returns false if the key was not found for the inifile handler, too. - GMP . Requires libgmp version 4.2 or newer now. . gmp_setbit() and gmp_clrbit() now return FALSE for negative indices, making them consistent with other GMP functions. - Intl: . Removed deprecated aliases datefmt_set_timezone_id() and IntlDateFormatter::setTimeZoneID(). Use datefmt_set_timezone() and IntlDateFormatter::setTimeZone() instead. - libxml: . Added LIBXML_BIGLINES parser option. It's available starting with libxml 2.9.0 and adds suppport for line numbers >16-bit in the error reporting. - Mcrypt . Removed deprecated mcrypt_generic_end() alias in favor of mcrypt_generic_deinit(). . Removed deprecated mcrypt_ecb(), mcrypt_cbc(), mcrypt_cfb() and mcrypt_ofb() functions in favor of mcrypt_encrypt() and mcrypt_decrypt() with an MCRYPT_MODE_* flag. - Session . session_start() accepts all INI settings as array. e.g. ['cache_limiter'=>'private'] sets session.cache_limiter=private. It also supports 'read_and_close' which closes session data immediately after read data. . Save handler accepts validate_sid(), update_timestamp() which validates session ID existence, updates timestamp of session data. Compatibility of old user defined save handler is retained. . SessionUpdateTimestampHandlerInterface is added. validateSid(), updateTimestamp() is defined in the interface. . session.lazy_write(default=On) INI setting enables only write session data when session data is updated. - Opcache . Removed opcache.load_comments configuration directive. Now doc comments loading costs nothing and always enabled. - OpenSSL: . Removed the "rsa_key_size" SSL context option in favor of automatically setting the appropriate size given the negotiated crypto algorithm. . Removed "CN_match" and "SNI_server_name" SSL context options. Use automatic detection or the "peer_name" option instead. - PCRE: . Removed support for /e (PREG_REPLACE_EVAL) modifier. Use preg_replace_callback() instead. - PDO_pgsql: . Removed PGSQL_ATTR_DISABLE_NATIVE_PREPARED_STATEMENT attribute in favor of ATTR_EMULATE_PREPARES. - Standard: . Removed string category support in setlocale(). Use the LC_* constants instead. . Removed set_magic_quotes_runtime() and its alias magic_quotes_runtime(). - JSON: . Rejected RFC 7159 incompatible number formats in json_decode string - top level (07, 0xff, .1, -.1) and all levels ([1.], [1.e1]) . Calling json_decode with 1st argument equal to empty PHP string or value that after casting to string is empty string (NULL, FALSE) results in JSON syntax error. - Stream: . Removed set_socket_blocking() in favor of its alias stream_set_blocking(). - XSL: . Removed xsl.security_prefs ini option. Use XsltProcessor::setSecurityPrefs() instead. ======================================== 2. New Features ======================================== - Core . Added group use declarations. (RFC: https://wiki.php.net/rfc/group_use_declarations) . Added null coalesce operator (??). (RFC: https://wiki.php.net/rfc/isset_ternary) . Support for strings with length >= 2^31 bytes in 64 bit builds. . Closure::call() method added (works only with userland classes). . Added \u{xxxxxx} Unicode Codepoint Escape Syntax for double-quoted strings and heredocs. . define() now supports arrays as constant values, fixing an oversight where define() did not support arrays yet const syntax did. . Added the comparison operator (<=>), aka the spaceship operator. (RFC: https://wiki.php.net/rfc/combined-comparison-operator) . Added the yield from operator for delegating Generators like coroutines. (RFC: https://wiki.php.net/rfc/generator-delegation) . Reserved keywords can now be used in various new contexts. (RFC: https://wiki.php.net/rfc/context_sensitive_lexer) . Added support for scalar type declarations and strict mode using declare(strict_types=1) (RFC: https://wiki.php.net/rfc/scalar_type_hints_v5) . Added support for cryptographically secure user land RNG (RFC: https://wiki.php.net/rfc/easy_userland_csprng) - Opcache . Added second level file based opcode cache (experimental - disabled by default). To enable it, PHP should be configured and built with --enable-opcache-file, then opcache.file_cache=<DIR> configuration directive should be set in php.ini. The second level cache may improve performance at server restart or SHM reset. In addition, it's possibe to use file cache without SHM at all, using opcache.file_cache_only=1 (this may be useful for sharing hosting), and disable file cache consistency check, to speedup loading at the cost of safety, using opcache.file_cache_consistency_checks=0. - OpenSSL . Added "alpn_protocols" SSL context option allowing encrypted client/server streams to negotiate alternative protocols using the ALPN TLS extension when built against OpenSSL 1.0.2 or newer. Negotiated protocol information is accessible through stream_get_meta_data() output. - Reflection . Added a ReflectionGenerator class (yield from Traces, current file/line, etc.) . Added a ReflectionType class to better support the new return type and scalar type declarations features. The new ReflectionParameter::getType() and ReflectionFunctionAbstract::getReturnType() methods both return an instance of ReflectionType. - Stream: . New Windows only stream context options was added to allow blocking reads on pipes. To enable it, pass array("pipe" => array("blocking" => true)) when creating the stream context. Be aware, that this option can under circumstances cause dead locks on the pipe buffer. However it can be useful in several CLI use case scenarios. ======================================== 3. Changes in SAPI modules ======================================== - FPM . Fixed bug #65933 (Cannot specify config lines longer than 1024 bytes). . Listen = port now listen on all addresses (IPv6 and IPv4-mapped). ======================================== 4. Deprecated Functionality ======================================== - Core . PHP 4 style constructors, where the constructor name is the same as the class name, are now deprecated. . Static calls to non-static methods are now deprecated. - OpenSSL . The "capture_session_meta" SSL context option is now deprecated. Meta data concerning active crypto on a stream resource is now accessible through the return result from stream_get_meta_data(). ======================================== 5. Changed Functions ======================================== - parse_ini_file(): - parse_ini_string(): . Added scanner mode INI_SCANNER_TYPED to yield typed .ini values. - unserialize(): . Added second parameter for unserialize function (RFC: https://wiki.php.net/rfc/secure_unserialize) allowing to specify acceptable classes: unserialize($foo, ["allowed_classes" => ["MyClass", "MyClass2"]]); - proc_open(): . The maximum number of pipes used by proc_open() was previously limited by hardcoded value of 16. This limit is now removed and the number of pipes is effectively limited by the amount of memory available to PHP. . New Windows only configuration option "blocking_pipes" can be used to force blocking reads on child process pipes. This covers several edge cases in CLI usage however can lead to dead locks. Also, this correlates with the new stream context options for pipes. - array_column(): The function now supports an array of objects as well as two-dimensional arrays. Only public properties are considered, and objects that make use of __get() for dynamic properties must also implement __isset(). - stream_context_create() It accepts now a Windows only configuration array("pipe" => array("blocking" => <boolean>)) which forces blocking reads on pipes. This option should be used carefully because due to the platform restrictions dead locks on pipe buffers are possible. ======================================== 6. New Functions ======================================== - GMP . Added gmp_random_seed(). - PCRE: . Added preg_replace_callback_array function (RFC: https://wiki.php.net/rfc/preg_replace_callback_array) - Standard . Added intdiv() function for integer division. . Added error_clear_last() function to reset error state. - Zlib: . Added deflate_init(), deflate_add(), inflate_init(), inflate_add() functions allowing incremental/streaming compression/decompression. ======================================== 7. New Classes and Interfaces ======================================== ======================================== 8. Removed Extensions and SAPIs ======================================== - sapi/aolserver - sapi/apache - sapi/apache_hooks - sapi/apache2filter - sapi/caudium - sapi/continuity - sapi/isapi - sapi/milter - sapi/nsapi - sapi/phttpd - sapi/pi3web - sapi/roxen - sapi/thttpd - sapi/tux - sapi/webjames - ext/mssql - ext/mysql - ext/sybase_ct - ext/ereg For more details see https://wiki.php.net/rfc/removal_of_dead_sapis_and_exts https://wiki.php.net/rfc/remove_deprecated_functionality_in_php7 NOTE: NSAPI was not voted in the RFC, however it was removed afterwards. It turned out, that the corresponding SDK isn't available anymore. ======================================== 9. Other Changes to Extensions ======================================== - Mhash Mhash is not an extension anymore, use function_exists("mhash") to check whether it is avaliable. ======================================== 10. New Global Constants ======================================== - Core . PHP_INT_MIN added. - Zlib . These constants are added to control flush behavior with the new incremental deflate_add() and inflate_add() functions: . ZLIB_NO_FLUSH . ZLIB_PARTIAL_FLUSH . ZLIB_SYNC_FLUSH . ZLIB_FULL_FLUSH . ZLIB_BLOCK . ZLIB_FINISH - GD . T1Lib support removed, thus lifting the optional dependency on T1Lib, the following is therefore not available anymore: Functions: - imagepsbbox() - imagepsencodefont() - imagepsextendedfont() - imagepsfreefont() - imagepsloadfont() - imagepsslantfont() - imagepstext() Resources: - 'gd PS font' - 'gd PS encoding' ======================================== 11. Changes to INI File Handling ======================================== - Core . Removed asp_tags ini directive. Trying to enable it will result in a fatal error. . Removed always_populate_raw_post_data ini directive. ======================================== 12. Windows Support ======================================== - Core . Support for native 64 bit integers in 64 bit builds. . Support for large files in 64 bit builds. . Support for getrusage() - ftp . The ftp extension is always shipped shared . For SSL support, the dependency on the openssl extension was abolished. Instead it depends alone on the openssl library. If it's present at the compile time, ftp_ssl_connect() is enabled automatically. - odbc . The odbc extension is always shipped shared ======================================== 13. Other Changes ======================================== - Core . Instead of being undefined and platform-dependent, NaN and Infinity will always be zero when cast to integer. . Calling a method on a non-object now raises a catchable error instead of a fatal error; see: https://wiki.php.net/rfc/catchable-call-to-member-of-non-object . Error messages for zend_parse_parameters, type hints and conversions now always say "integer" and "float" instead of "long" and "double". . Output buffering now continues to work for an aborted connection if ignore_user_abort is set to true.
5,843
用这些专用工具让你截图更简单
http://www.linuxlinks.com/article/2015062316235249/ScreenCapture.html
2015-07-18T21:21:26
[ "截屏", "Shutter" ]
https://linux.cn/article-5843-1.html
“一图胜千言”,这句二十世纪早期在美国应运而生的名言,说的是一张单一的静止图片所蕴含的信息足以匹敌大量的描述性文字。本质上说,图片所传递的信息量的确是比文字更有效更高效。 截图(或抓帧)是一种捕捉自计算机的快照或图片,用来记录可视设备的输出。屏幕捕捉软件能从计算机中获取到截图。此类软件有很多用处,因为一张图片能很好地说明计算机软件的操作,截图在软件开发过程和文档中扮演了一个很重要的角色。或者,如果你的电脑有了技术性问题,一张截图能让技术支持理解你碰到的这个问题。要写好计算机相关的文章、文档和教程,没有一款好的截图工具是几乎不可能的。如果你想保存你放在屏幕上的一些零星的信息,特别是不方便打字时,截图也很有用。 在开源世界,Linux有许多专注于截图功能的工具供选择,基于图形的和控制台的都有。如果要说一个功能丰富的专用截图工具,看起来没有能超过Shutter的。这款工具是小型开源工具的杰出代表,但是也有其它的不错替代品可以选择。 屏幕捕捉功能不仅仅只有专门的工具提供,GIMP和ImageMagick这两款主攻图像处理的工具,也能提供像样的屏幕捕捉功能。 ### Shutter ![Shutter in action](/data/attachment/album/201507/18/212134ooizospvwsq8zwhh.png) Shutter是一款功能丰富的截图软件。你可以对特定区域、窗口、整个屏幕甚至是网站截图 - 并为其应用不同的效果,比如用高亮的点在上面绘图,然后上传至一个图片托管网站,一切尽在这个小窗口内。 包含特性: * 截图范围: + 一个特定区域 + 窗口 + 完整的桌面 + 脚本生成的网页 * 在截图中应用不同效果 * 热键 * 打印 * 直接截图或指定延迟时间截图 * 将截图保存至一个指定目录并用一个简便方法重命名它(用指定通配符) * 完全集成在GNOME桌面中(TrayIcon等等) * 当你截了一张图并根据尺寸的百分比直接生成缩略图 * Shutter会话集: + 跟踪会话中所有的截图 + 复制截图至剪贴板 + 打印截图 + 删除截图 + 重命名文件 * 直接上传你的文件至图像托管网站(比如 <http://ubuntu-pics.de> ),得到链接并将它们与其他人分享 * 用内置的绘画工具直接编辑截图 --- * 主页: [shutter-project.org](http://shutter-project.org/) * 开发者: Mario Kemper和Shutter团队 * 许可证: GNU GPL v3 * 版本号: 0.93.1 ### HotShots ![HotShots in action](/data/attachment/album/201507/18/212143es9s5l1yjjtls6tj.png) HotShots是一款捕捉屏幕并能以各种图片格式保存的软件,同时也能添加注释和图形数据(箭头、行、文本 ...)。 你也可以把你的作品上传到网上(FTP/一些web服务),HotShots是用Qt开发而成的。 HotShots无法从Ubuntu的Software Center中获取,不过用以下命令可以轻松地来安装它: ``` sudo add-apt-repository ppa:ubuntuhandbook1/apps sudo apt-get update sudo apt-get install hotshots ``` 包含特性: * 简单易用 * 功能完整 * 内置编辑器 * 热键 * 内置放大功能 * 手动控制和多屏捕捉 * 支持输出格式:Black & Whte (bw), Encapsulated PostScript (eps, epsf), Encapsulated PostScript Interchange (epsi), OpenEXR (exr), PC Paintbrush Exchange (pcx), Photoshop Document (psd), ras, rgb, rgba, Irix RGB (sgi), Truevision Targa (tga), eXperimental Computing Facility (xcf), Windows Bitmap (bmp), DirectDraw Surface (dds), Graphic Interchange Format (gif), Icon Image (ico), Joint Photographic Experts Group 2000 (jp2), Joint Photographic Experts Group (jpeg, jpg), Multiple-image Network Graphics (mng), Portable Pixmap (ppm), Scalable Vector Graphics (svg), svgz, Tagged Image File Format (tif, tiff), webp, X11 Bitmap (xbm), X11 Pixmap (xpm), and Khoros Visualization (xv) * 国际化支持:巴斯克语、中文、捷克语、法语、加利西亚语、德语、希腊语、意大利语、日语、立陶宛语、波兰语、葡萄牙语、罗马尼亚语、俄罗斯语、塞尔维亚语、僧伽罗语、斯洛伐克语、西班牙语、土耳其语、乌克兰语和越南语 --- * 主页: [thehive.xbee.net](http://thehive.xbee.net/) * 开发者 xbee * 许可证: GNU GPL v2 * 版本号: 2.2.0 ### ScreenCloud ![ScreenCloud in action](/data/attachment/album/201507/18/212147ydxyi884d86plmds.png) ScreenCloud是一款易于使用的开源截图工具。 在这款软件中,用户可以用三个热键之一或只需点击ScreenCloud托盘图标就能进行截图,用户也可以自行选择保存截图的地址。 如果你选择上传你的截图到screencloud网站,链接会自动复制到你的剪贴板上,你能通过email或在一个聊天对话框里和你的朋友同事分享它,他们肯定会点击这个链接来看你的截图的。 包含特性: * 捕捉整个屏幕,窗口和截选区域 * 快速又简单:截取图片,粘贴链接,完成 * 免费托管你的截图 * 热键 * 设置定时器延迟 * 允许 '捕捉窗口边框' * 启用/禁用通知 * 设置开机自启动 * 调整账户/上传/文件名/快捷方式的设置 * 跨平台工具 * 插件支持:保存至Dropbox,Imgur等等 * 支持上传至FTP和SFTP服务器 --- * 主页: [screencloud.net](https://screencloud.net/) * 开发者: Olav S Thoresen * 许可证: GNU GPL v2 * 版本号: 1.2.1 ### KSnapshot ![KSnapShot in action](/data/attachment/album/201507/18/212152hv1091xd9hr1vtct.png) KSnapshot也是一款易于使用的截图工具,它能给整个桌面、单一窗口、窗口的一部分或一块所选区域捕捉图像。图像能以各种不同格式保存。 KSnapshot也允许用户用热键来进行截图。除了保存截图之外,它也可以被复制到剪贴板或用任何与图像文件关联的程序打开。 KSnapshot是KDE 4图形模块的一部分。 包含特性: * 以多种格式保存截图 * 延迟截图 * 剔除窗口装饰(边框、菜单等) * 复制截图至剪贴板 * 热键 * 能用它的D-Bus接口进行脚本化 --- * 主页: [www.kde.org](https://www.kde.org/applications/graphics/ksnapshot/) * 开发者: KDE, Richard J. Moore, Aaron J. Seigo, Matthias Ettrich * 许可证: GNU GPL v2 * 版本号: 0.8.2 --- via: <http://www.linuxlinks.com/article/2015062316235249/ScreenCapture.html> 译者:[ZTinoZ](https://github.com/ZTinoZ) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,844
Linux有问必答:如何为在Linux中安装兄弟牌打印机
http://ask.xmodulo.com/install-brother-printer-linux.html
2015-07-19T09:42:00
[ "打印机" ]
/article-5844-1.html
> > **提问**: 我有一台兄弟牌HL-2270DW激光打印机,我想从我的Linux机器上打印文档。我该如何在我的电脑上安装合适的驱动并使用它? > > > 兄弟牌以买得起的紧凑型激光打印机而闻名。你可以用低于200美元的价格得到高质量的WiFi/双工激光打印机,而且价格还在下降。最棒的是,它们还提供良好的Linux支持,因此你可以在Linux中下载并安装它们的打印机驱动。我在一年前买了台HL-2270DW,我对它的性能和可靠性都很满意。 下面是如何在Linux中安装和配置兄弟打印机驱动。本篇教程中,我会演示安装HL-2270DW激光打印机的USB驱动。 首先通过USB线连接你的打印机到Linux上。 ### 准备 在准备阶段,进入[兄弟官方支持网站](http://support.brother.com/),输入你的型号(比如:HL-2270DW)搜索你的兄弟打印机型号。 ![](/data/attachment/album/201507/18/214416f353d6u1pug21ldu.jpg) 进入下面页面后,选择你的Linux平台。对于Debian、Ubuntu或者其他衍生版,选择“Linux (deb)”。对于Fedora、CentOS或者RHEL选择“Linux (rpm)”。 ![](/data/attachment/album/201507/18/214418dacjtrtdvjlgtgtg.jpg) 下一页,你会找到你打印机的LPR驱动和CUPS包装器驱动。前者是命令行驱动,后者允许你通过网页管理和配置你的打印机。尤其是基于CUPS的图形界面对(本地、远程)打印机维护非常有用。建议你安装这两个驱动。点击“Driver Install Tool”下载安装文件。 ![](/data/attachment/album/201507/18/214423le9bq5iwjes1kzag.jpg) 运行安装文件之前,你需要在64位的Linux系统上做另外一件事情。 因为兄弟打印机驱动是为32位的Linux系统开发的,因此你需要按照下面的方法安装32位的库。 在早期的Debian(6.0或者更早期)或者Ubuntu(11.04或者更早期),安装下面的包。 ``` $ sudo apt-get install ia32-libs ``` 对于已经引入多架构的新的Debian或者Ubuntu而言,你可以安装下面的包: ``` $ sudo apt-get install lib32z1 lib32ncurses5 ``` 上面的包代替了ia32-libs包。或者你只需要安装: ``` $ sudo apt-get install lib32stdc++6 ``` 如果你使用的是基于Red Hat的Linux,你可以安装: ``` $ sudo yum install glibc.i686 ``` ### 驱动安装 现在解压下载的驱动文件。 ``` $ gunzip linux-brprinter-installer-2.0.0-1.gz ``` 接下来像下面这样运行安装文件。 ``` $ sudo sh ./linux-brprinter-installer-2.0.0-1 ``` 你会被要求输入打印机的型号。输入你打印机的型号,比如“HL-2270DW”。 ![](/data/attachment/album/201507/18/214428ekw9kzdm0vmdkxd9.jpg) 同意GPL协议之后,接受接下来的任何默认问题。 ![](/data/attachment/album/201507/18/214436p5xd12dxkkr5rr1v.jpg) 现在LPR/CUPS打印机驱动已经安装好了。接下来要配置你的打印机了。 ### 打印机配置 我接下来就要通过基于CUPS的网页管理和配置兄弟打印机了。 首先验证CUPS守护进程已经启动。 ``` $ sudo netstat -nap | grep 631 ``` 打开一个浏览器输入 http://localhost:631 。你会看到下面的打印机管理界面。 ![](/data/attachment/album/201507/18/214441kaes6af4hflh632z.jpg) 进入“Administration”选项卡,点击打印机选项下的“Manage Printers”。 ![](/data/attachment/album/201507/18/214448dpvz2f8qwikzfqvq.jpg) 你一定在下面的页面中看到了你的打印机(HL-2270DW)。点击打印机名。 在下拉菜单“Administration”中,选择“Set As Server Default”。这会设置你的打印机位系统默认打印机。 ![](/data/attachment/album/201507/18/214457dcpb4echer0rrpde.jpg) 当被要求验证时,输入你的Linux登录信息。 ![](/data/attachment/album/201507/18/214502g7adgfqqmtgsszn0.jpg) 现在基础配置已经基本完成了。为了测试打印,打开任何文档浏览程序(比如:PDF浏览器)并打印。你会看到“HL-2270DW”被列出并被作为默认的打印机设置。 ![](/data/attachment/album/201507/18/214504ux5x9rlrrluwlg9x.jpg) 打印机应该可以工作了。你可以通过CUPS的网页看到打印机状态和管理打印机任务。 --- via: <http://ask.xmodulo.com/install-brother-printer-linux.html> 作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /install-brother-printer-linux.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c48b0>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)"))
null
5,845
如何在 Fedora 22 上面配置 Apache 的 Docker 容器
http://linoxide.com/linux-how-to/configure-apache-containers-docker-fedora-22/
2015-07-19T10:13:00
[ "Docker", "Apache", "镜像" ]
/article-5845-1.html
在这篇文章中,我们将会学习关于Docker的一些知识,如何使用Docker部署Apache httpd服务,并且共享到Docker Hub上面去。首先,我们学习怎样拉取和使用Docker Hub里面的镜像,然后在一个Fedora 22的镜像上交互式地安装Apache,之后我们将会学习如何用一个Dockerfile文件来以一种更快,更优雅的方式制作一个镜像。最后,我们将我们创建的镜像发布到Docker Hub上,这样以后任何人都可以下载并使用它。 ![](/data/attachment/album/201507/18/222135wkezye1y1o5zhhia.jpg) ### 安装并初体验Docker **要求** 运行Docker,你至少需要满足这些: * 你需要一个64位的内核,版本3.10或者更高 * Iptables 1.4 - Docker会用它来做网络配置,如网络地址转换(NAT) * Git 1.7 - Docker会使用Git来与仓库交流,如Docker Hub * ps - 在大多数环境中这个工具都存在,在procps包里有提供 * root - 尽管一般用户可以通过TCP或者其他方式来运行Docker,但是为了简化,我们会假定你就是root #### 使用dnf安装docker 以下的命令会安装Docker ``` dnf update && dnf install docker ``` **注意**:在Fedora 22里,你仍然可以使用Yum命令,但是它被DNF取代了,而且在纯净安装时不可用了。 #### 检查安装 我们将要使用的第一个命令是docker info,这会输出很多信息给你: ``` docker info ``` 也可以试着用**docker version**: ``` docker version ``` #### 以守护进程方式启动Dcoker 你应该启动一个docker实例,然后她会处理我们的请求。 ``` docker -d ``` 现在我们设置 docker 随系统启动,以便我们不需要每次重启都需要运行上述命令。 ``` chkconfig docker on ``` 让我们用Busybox来打印hello world: ``` dockr run -t busybox /bin/echo "hello world" ``` 这个命令里,我们告诉Docker在Busybox镜像的一个实例/容器里执行 /bin/echo "hello world"。Busybox是一个小型的POSIX环境,将许多小工具都结合到了一个单独的可执行程序里。 如果Docker不能在你的系统里找到本地的Busybox镜像,她就会自动从Docker Hub里拉取镜像,正如你可以看下如下的快照: ![Hello world with Busybox](/data/attachment/album/201507/18/222140i55kyke5p9ph5pk2.png) *Hello world with Busybox* 再次尝试相同的命令,这次由于Docker已经有了本地的Busybox镜像,你将会看到的全部就是echo的输出: ``` docker run -t busybox /bin/echo "hello world" ``` 也可以尝试以下的命令进入到容器环境里去: ``` docker run -it busybox /bin/sh ``` 使用**exit**命令可以离开容器并停止它 ### 交互式地Docker化Apache 拉取/下载 Fedora 镜像: ``` docker pull fedora:22 ``` 启动一个容器在后台运行: ``` docker run -d -t fedora:22 /bin/bash ``` 列出正在运行地容器及其名字标识,如下 ``` docker ps ``` ![listing with docker ps and attaching with docker attach](/data/attachment/album/201507/18/222141ym3qoi88ib0qlk6x.png) *使用docker ps列出,并使用docker attach进入一个容器里* angry\_noble是docker分配给我们容器的名字,所以我们来连接上去: ``` docker attach angry_noble ``` 注意:每次你启动一个容器,就会被给与一个新的名字,如果你的容器需要一个固定的名字,你应该在 docker run 命令里使用 -name 参数。 #### 安装Apache 下面的命令会更新DNF的数据库,下载安装Apache(httpd包)并清理dnf缓存使镜像尽量小 ``` dnf -y update && dnf -y install httpd && dnf -y clean all ``` **配置Apache** 我们需要修改httpd.conf的唯一地方就是ServerName,这会使Apache停止抱怨 ``` sed -i.orig 's/#ServerName/ServerName/' /etc/httpd/conf/httpd.conf ``` **设定环境** 为了使Apache运行为独立模式,你必须以环境变量的格式提供一些信息,并且你也需要创建这些变量里的目录,所以我们将会用一个小的shell脚本干这个工作,当然也会启动Apache ``` vi /etc/httpd/run_apache_foreground ``` --- ``` #!/bin/bash #设置环境变量 APACHE_LOG_DI=R"/var/log/httpd" APACHE_LOCK_DIR="/var/lock/httpd" APACHE_RUN_USER="apache" APACHE_RUN_GROUP="apache" APACHE_PID_FILE="/var/run/httpd/httpd.pid" APACHE_RUN_DIR="/var/run/httpd" #如果需要的话,创建目录 if ! [ -d /var/run/httpd ]; then mkdir /var/run/httpd;fi if ! [ -d /var/log/httpd ]; then mkdir /var/log/httpd;fi if ! [ -d /var/lock/httpd ]; then mkdir /var/lock/httpd;fi #运行 Apache httpd -D FOREGROUND ``` **另外地**,你可以粘贴这个片段代码到容器shell里并运行: ``` dnf -y install git && git clone https://github.com/gaiada/run-apache-foreground.git && cd run-apach* && ./install && dnf erase git ``` 上面的内嵌脚本会安装Git,克隆[这个仓库](https://github.com/gaiada/run-apache-foreground),到文件里去运行脚本,并询问你是否卸载Git。 **保存你的容器状态** 你的容器现在准备好运行Apache,是时候保存容器当前的状态为一个镜像,以备你需要的时候使用。 为了离开容器环境,你必须顺序按下 **Ctrl+q** 和 **Ctrl+p**,如果你仅仅在shell执行exit,你同时也会停止容器,失去目前为止你做过的所有工作。 回到Docker主机,使用 **docker commit** 及容器名和你想要的仓库名字/标签: ``` docker commit angry_noble gaiada/apache ``` 现在,你保存了容器的状态到一个镜像里,可以使用 **docker stop** 停止容器了: ``` docker stop angry_noble ``` **运行并测试你的镜像** 最后,从你的新镜像启动一个容器,并且重定向80端口到该容器: ``` docker run -p 80:80 -d -t gaiada/apache /etc/httpd/run_apache_foreground ``` 到目前,你正在你的容器里运行Apache,打开你的浏览器访问该服务,在[http://localhost](http://localhost/),你将会看到如下Apache默认的页面 ![Apache default page running from Docker container](/data/attachment/album/201507/18/222142v25gpwhznvv0pl37.png) *在容器里运行的Apache默认页面* ### 使用Dockerfile Docker化Apache 现在,我们将要去创建一个新的Apache镜像,这次所有步骤会写在一个Dockerfile文件里,文件将会被用于生成该镜像。 首先,新建一个目录,在里面放Dockerfile文件,并进入该目录: ``` mkdir apachedf; cd apachedf ``` 然后创建一个名为Dockerfile的文件,添加以下内容: ``` FROM fedora:22 MAINTAINER Carlos Alberto LABEL version="0.1" RUN dnf -y update && dnf -y install httpd && dnf -y clean all RUN [ -d /var/log/httpd ] || mkdir /var/log/httpd RUN [ -d /var/run/httpd ] || mkdir /var/run/httpd RUN [ -d /var/lock/httpd ] || mkdir /var/lock/httpd RUN sed -i.orig 's/#ServerName/ServerName/' /etc/httpd/conf/httpd.conf ENV APACHE_RUN_USER apache ENV APACHE_RUN_GROUP apache ENV APACHE_LOG_DIR /var/log/httpd ENV APACHE_LOCK_DIR /var/lock/httpd ENV APACHE_RUN_DIR /var/run/httpd ENV APACHE_PID_FILE /var/run/httpd/httpd.pid EXPOSE 80 CMD ["/usr/sbin/httpd", "-D", "FOREGROUND"] ``` 我们一起来看看Dockerfile里面有什么: * **FROM** - 这告诉docker,我们将要使用Fedora 22作为基础镜像 * **MAINTAINER** 和 **LABLE** - 这些命令对镜像没有直接作用,属于标记信息 * **RUN** - 自动完成我们之前交互式做的工作,安装Apache,新建目录并编辑httpd.conf * **ENV** - 设置环境变量,现在我们再不需要run*apache*foreground脚本 * **EXPOSE** - 暴露80端口给外网 * **CMD** - 设置默认的命令启动httpd服务,这样我们就不需要每次起一个新的容器都重复这个工作 **建立该镜像** 现在,我们将要建立这个镜像,并为其添加tag gaiada/apachedf ``` docker build -t gaiada/apachedf:0.1 . ``` ![docker build complete](/data/attachment/album/201507/18/222143el2g77alygcld997.png) *docker完成创建* 使用 **docker images** 列出本地镜像,查看是否存在你新建的镜像: ``` docker images ``` 然后运行新的镜像: ``` docker run -t -p 80:80 gaiada/apachedf ``` 这就是Dockerfile的工作,使用这项功能会使得事情更加容易,快速并且可重复生成。 ### 发布你的镜像 直到现在,你仅仅是从Docker Hub拉取了镜像,但是你也可以推送你的镜像,以后需要也可以再次拉取他们。实际上,其他人也可以下载你的镜像,在他们的系统中使用它而不需要改变任何东西。现在我们将要学习如何使我们的镜像对世界上的其他人可用。 **创建帐号** 为了能够在Docker Hub上推送你的镜像,你需要创建一个帐号。访问 <https://hub.docker.com/account/signup/>,填写下面的表格: ![Docker Hub signup page](/data/attachment/album/201507/18/222143jf9zcj8cnc7ce1c7.png) *Docker Hub 注册页面* **登录** 输入下面的命令,接着输入你注册时提供的用户名,密码和邮箱 ``` docker login ``` 第一次登录过后,你的帐号信息会被记录在 **~/.dockercfg** **推送** 推送镜像,使用 **docker push [registry/]your*login/repository*name[:tag]** ``` docker push docker.io/gaiada/apachedf ``` 你可能会看见像这样的输出,在你的控制台上: ![Docker push Apache image complete](/data/attachment/album/201507/18/222144sp083p0xxw0g0t2t.png) *Docker推送Apache镜像完成* ### 结论 现在,你知道如何Docker化Apache,试一试包含其他一些组件,Perl,PHP,proxy,HTTPS,或者任何你需要的东西。我希望你们这些家伙喜欢她,并推送你们自己的镜像到Docker Hub。 --- via: <http://linoxide.com/linux-how-to/configure-apache-containers-docker-fedora-22/> 作者:[Carlos Alberto](http://linoxide.com/author/carlosal/) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/configure-apache-containers-docker-fedora-22/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c5750>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,860
互联网扫描器 ZMap 完全手册
https://zmap.io/documentation.html
2015-07-21T07:30:00
[ "扫描器", "ZMap" ]
https://linux.cn/article-5860-1.html
### 初识 ZMap ![](/data/attachment/album/201507/21/003713ar4fq4gq4g7zqb4q.png) ZMap被设计用来针对整个IPv4地址空间或其中的大部分实施综合扫描的工具。ZMap是研究者手中的利器,但在运行ZMap时,请注意,您很有可能正在以每秒140万个包的速度扫描整个IPv4地址空间 。我们建议用户即使在实施小范围扫描之前,也联系一下本地网络的管理员并参考我们列举的[最佳扫描体验](/article-5860-1.html#bestpractices)。 默认情况下,ZMap会对于指定端口实施尽可能大速率的TCP SYN扫描。较为保守的情况下,对10,000个随机的地址的80端口以10Mbps的速度扫描,如下所示: ``` $ zmap --bandwidth=10M --target-port=80 --max-targets=10000 --output-file=results.csv ``` 或者更加简洁地写成: ``` $ zmap -B 10M -p 80 -n 10000 -o results.csv ``` ZMap也可用于扫描特定子网或CIDR地址块。例如,仅扫描10.0.0.0/8和192.168.0.0/16的80端口,运行指令如下: ``` zmap -p 80 -o results.csv 10.0.0.0/8 192.168.0.0/16 ``` 如果扫描进行的顺利,ZMap会每秒输出类似以下内容的状态更新: ``` 0% (1h51m left); send: 28777 562 Kp/s (560 Kp/s avg); recv: 1192 248 p/s (231 p/s avg); hits: 0.04% 0% (1h51m left); send: 34320 554 Kp/s (559 Kp/s avg); recv: 1442 249 p/s (234 p/s avg); hits: 0.04% 0% (1h50m left); send: 39676 535 Kp/s (555 Kp/s avg); recv: 1663 220 p/s (232 p/s avg); hits: 0.04% 0% (1h50m left); send: 45372 570 Kp/s (557 Kp/s avg); recv: 1890 226 p/s (232 p/s avg); hits: 0.04% ``` 这些更新信息提供了扫描的即时状态并表示成: ``` 完成进度% (剩余时间); send: 发出包的数量 即时速率 (平均发送速率); recv: 接收包的数量 接收率 (平均接收率); hits: 命中率 ``` 如果您不知道您所在网络能支持的扫描速率,您可能要尝试不同的扫描速率和带宽限制直到扫描效果开始下降,借此找出当前网络能够支持的最快速度。 默认情况下,ZMap会输出不同IP地址的列表(例如,根据SYN ACK数据包的情况),像下面这样。其[输出结果](/article-5860-1.html#output)还有几种附加的格式(如,JSON和Redis),可以用作生成[程序可解析的扫描统计](/article-5860-1.html#verbosity)。 同样,可以指定附加的[输出字段](/article-5860-1.html#outputfields)并使用[输出过滤](/article-5860-1.html#outputfilter)来过滤输出的结果。 ``` 115.237.116.119 23.9.117.80 207.118.204.141 217.120.143.111 50.195.22.82 ``` 我们强烈建议您使用[黑名单文件](/article-5860-1.html#blacklisting),以排除预留的/未分配的IP地址空间(如,RFC1918 规定的私有地址、组播地址),以及网络中需要排除在您扫描之外的地址。默认情况下,ZMap将采用位于 `/etc/zmap/blacklist.conf`的这个简单的[黑名单文件](/article-5860-1.html#blacklisting)中所包含的预留和未分配地址。如果您需要某些特定设置,比如每次运行ZMap时的最大带宽或[黑名单文件](/article-5860-1.html#blacklisting),您可以在文件`/etc/zmap/zmap.conf`中指定或使用自定义[配置文件](/article-5860-1.html#config)。 如果您正试图解决扫描的相关问题,有几个选项可以帮助您调试。首先,您可以通过添加`--dryrun`实施[预扫](/article-5860-1.html#dryrun),以此来分析包可能会发送到网络的何处。此外,还可以通过设置'--verbosity=n`来更改[日志详细程度](/article-5860-1.html#verbosity)。 ### 最佳扫描体验 我们为针对互联网进行扫描的研究者提供了一些建议,以此来引导养成良好的互联网合作氛围。 * 密切协同本地的网络管理员,以减少风险和调查 * 确认扫描不会使本地网络或上游供应商瘫痪 * 在发起扫描的源地址的网页和DNS条目中申明你的扫描是善意的 * 明确解释你的扫描中所有连接的目的和范围 * 提供一个简单的退出扫描的方法并及时响应请求 * 实施扫描时,不使用比研究对象需求更大的扫描范围或更快的扫描频率 * 如果可以,将扫描流量分布到不同的时间或源地址上 即使不声明,使用扫描的研究者也应该避免利用漏洞或访问受保护的资源,并遵守其辖区内任何特殊的法律规定。 ### 命令行参数 #### 通用选项 这些选项是实施简单扫描时最常用的选项。我们注意到某些选项取决于所使用的[探测模块](/article-5860-1.html#probemodule)或[输出模块](/article-5860-1.html#outputmodule)(如,在实施ICMP Echo扫描时是不需要使用目的端口的)。 **-p, --target-port=port** 要扫描的目标TCP端口号(例如,443) **-o, --output-file=name** 将结果写入该文件,使用`-`代表输出到标准输出。 **-b, --blacklist-file=path** 文件中被排除的子网使用CIDR表示法(如192.168.0.0/16),一个一行。建议您使用此方法排除RFC 1918地址、组播地址、IANA预留空间等IANA专用地址。在conf/blacklist.example中提供了一个以此为目的示例黑名单文件。 #### 扫描选项 **-n, --max-targets=n** 限制探测目标的数量。后面跟的可以是一个数字(例如'-n 1000`),或可扫描地址空间的百分比(例如,`-n 0.1%`,不包括黑名单) **-N, --max-results=n** 收到多少结果后退出 **-t, --max-runtime=secs** 限制发送报文的时间 **-r, --rate=pps** 设置发包速率,以包/秒为单位 **-B, --bandwidth=bps** 以比特/秒设置传输速率(支持使用后缀G,M或K(如`-B 10M`就是速度10 mbps)的。设置会覆盖`--rate`。 **-c, --cooldown-time=secs** 发送完成后等待多久继续接收回包(默认值= 8) **-e, --seed=n** 地址排序种子。如果要用多个ZMap以相同的顺序扫描地址,那么就可以使用这个参数。 **--shards=n** 将扫描分片/区,使其可多个ZMap中执行(默认值= 1)。启用分片时,`--seed`参数是必需的。 **--shard=n** 选择扫描的分片(默认值= 0)。n的范围在[0,N),其中N为碎片的总数。启用分片时,`--seed`参数是必需的。 **-T, --sender-threads=n** 用于发送数据包的线程数(默认值= 1) **-P, --probes=n** 发送到每个IP的探测数(默认值= 1) **-d, --dryrun** 用标准输出打印出每个包,而不是将其发送(用于调试) #### 网络选项 **-s, --source-port=port|range** 发送数据包的源端口 **-S, --source-ip=ip|range** 发送数据包的源地址。可以仅仅是一个IP,也可以是一个范围(如,10.0.0.1-10.0.0.9) **-G, --gateway-mac=addr** 数据包发送到的网关MAC地址(用以防止自动检测不工作的情况) **-i, --interface=name** 使用的网络接口 #### 探测选项 ZMap允许用户指定并添加自己所需要的[探测模块](/article-5860-1.html#probemodule)。 探测模块的职责就是生成要发送的探测包,并处理主机回复的响应包。 **--list-probe-modules** 列出可用探测模块(如tcp\_synscan) **-M, --probe-module=name** 选择[探测模块](/article-5860-1.html#probemodule)(默认值= tcp\_synscan) **--probe-args=args** 向模块传递参数 **--list-output-fields** 列出可用的输出模块 #### 输出选项 ZMap允许用户指定和编写他们自己的[输出模块](/article-5860-1.html#outputmodule)。输出模块负责处理由探测模块返回的字段,并将它们输出给用户。用户可以指定输出的字段,并过滤相应字段。 **--list-output-modules** 列出可用输出模块(如tcp\_synscan) **-O, --output-module=name** 选择[输出模块](/article-5860-1.html#outputmodule)(默认值为csv) **--output-args=args** 传递给输出模块的参数 **-f, --output-fields=fields** 输出的字段列表,以逗号分割 **--output-filter** 指定输出[过滤器](/article-5860-1.html#outputfilter)对[探测模块](/article-5860-1.html#probemodule)定义字段进行过滤 #### 附加选项 **-C, --config=filename** 加载[配置文件](/article-5860-1.html#config),可以指定其他路径。 **-q, --quiet** 不必每秒刷新输出 **-g, --summary** 在扫描结束后打印配置和结果汇总信息 **-v, --verbosity=n** 日志详细程度(0-5,默认值= 3) **-h, --help** 打印帮助并退出 **-V, --version** 打印版本并退出 ### 附加信息 #### TCP SYN 扫描 在执行TCP SYN扫描时,ZMap需要指定一个目标端口,也支持指定发起扫描的源端口范围。 **-p, --target-port=port** 扫描的TCP端口(例如 443) **-s, --source-port=port|range** 发送扫描数据包的源端口(例如 40000-50000) **警示!** ZMap基于Linux内核使用RST包来应答SYN/ACK包响应,以关闭扫描器打开的连接。ZMap是在Ethernet层完成包的发送的,这样做是为了减少跟踪打开的TCP连接和路由寻路带来的内核开销。因此,如果您有跟踪连接建立的防火墙规则,如类似于`-A INPUT -m state --state RELATED,ESTABLISHED -j ACCEPT`的netfilter规则,将阻止SYN/ACK包到达内核。这不会妨碍到ZMap记录应答,但它会阻止RST包被送回,最终被扫描主机的连接会一直打开,直到超时后断开。我们强烈建议您在执行ZMap时,选择一组主机上未使用且防火墙允许访问的端口,加在`-s`后(如 `-s '50000-60000'` )。 #### ICMP Echo 请求扫描 虽然在默认情况下ZMap执行的是TCP SYN扫描,但它也支持使用ICMP echo请求扫描。在这种扫描方式下ICMP echo请求包被发送到每个主机,并以收到ICMP应答包作为答复。实施ICMP扫描可以通过选择icmp\_echoscan扫描模块来执行,如下: ``` $ zmap --probe-module=icmp_echoscan ``` #### UDP 数据报扫描 ZMap还额外支持UDP探测,它会发出任意UDP数据报给每个主机,并接收UDP或ICMP不可达的应答。ZMap可以通过使用--probe-args命令行选项来设置四种不同的UDP载荷。这些是:可在命令行设置可打印的ASCII 码的‘text’载荷和十六进制载荷的‘hex’,外部文件中包含载荷的‘file’,和通过动态字段生成的载荷的‘template’。为了得到UDP响应,请使用-f参数确保您指定的“data”字段处于输出范围。 下面的例子将发送两个字节'ST',即PCAnwywhere的'status'请求,到UDP端口5632。 ``` $ zmap -M udp -p 5632 --probe-args=text:ST -N 100 -f saddr,data -o - ``` 下面的例子将发送字节“0X02”,即SQL Server的'client broadcast'请求,到UDP端口1434。 ``` $ zmap -M udp -p 1434 --probe-args=hex:02 -N 100 -f saddr,data -o - ``` 下面的例子将发送一个NetBIOS状态请求到UDP端口137。使用一个ZMap自带的载荷文件。 ``` $ zmap -M udp -p 1434 --probe-args=file:netbios_137.pkt -N 100 -f saddr,data -o - ``` 下面的例子将发送SIP的'OPTIONS'请求到UDP端口5060。使用附ZMap自带的模板文件。 ``` $ zmap -M udp -p 1434 --probe-args=file:sip_options.tpl -N 100 -f saddr,data -o - ``` UDP载荷模板仍处于实验阶段。当您在更多的使用一个以上的发送线程(-T)时可能会遇到崩溃和一个明显的相比静态载荷性能降低的表现。模板仅仅是一个由一个或多个使用${}将字段说明封装成序列构成的载荷文件。某些协议,特别是SIP,需要载荷来反射包中的源和目的包。其他协议,如portmapper和DNS,每个请求包含的字段应该是随机的,或降低被Zamp扫描的多宿主系统的风险。 以下的载荷模板将发送SIP OPTIONS请求到每一个目的地: ``` OPTIONS sip:${RAND_ALPHA=8}@${DADDR} SIP/2.0 Via: SIP/2.0/UDP ${SADDR}:${SPORT};branch=${RAND_ALPHA=6}.${RAND_DIGIT=10};rport;alias From: sip:${RAND_ALPHA=8}@${SADDR}:${SPORT};tag=${RAND_DIGIT=8} To: sip:${RAND_ALPHA=8}@${DADDR} Call-ID: ${RAND_DIGIT=10}@${SADDR} CSeq: 1 OPTIONS Contact: sip:${RAND_ALPHA=8}@${SADDR}:${SPORT} Content-Length: 0 Max-Forwards: 20 User-Agent: ${RAND_ALPHA=8} Accept: text/plain ``` 就像在上面的例子中展示的那样,注意每行行末以\r\n结尾,请求以\r\n\r\n结尾,大多数SIP实现都可以正确处理它。一个可以工作的例子放在ZMap的examples/udp-payloads目录下 (sip\_options.tpl). 当前实现了下面的模板字段: * **SADDR**: 源IP地址的点分十进制格式 * **SADDR\_N**: 源IP地址的网络字节序格式 * **DADDR**: 目的IP地址的点分十进制格式 * **DADDR\_N**: 目的IP地址的网络字节序格式 * **SPORT**: 源端口的ascii格式 * **SPORT\_N**: 源端口的网络字节序格式 * **DPORT**: 目的端口的ascii格式 * **DPORT\_N**: 目的端口的网络字节序格式 * **RAND\_BYTE**: 随机字节(0-255),长度由=(length) 参数决定 * **RAND\_DIGIT**: 随机数字0-9,长度由=(length) 参数决定 * **RAND\_ALPHA**: 随机大写字母A-Z,长度由=(length) 参数决定 * **RAND\_ALPHANUM**: 随机大写字母A-Z和随机数字0-9,长度由=(length) 参数决定 ### 配置文件 ZMap支持使用配置文件来代替在命令行上指定所有要求的选项。配置中可以通过每行指定一个长名称的选项和对应的值来创建: ``` interface "eth1" source-ip 1.1.1.4-1.1.1.8 gateway-mac b4:23:f9:28:fa:2d # upstream gateway cooldown-time 300 # seconds blacklist-file /etc/zmap/blacklist.conf output-file ~/zmap-output quiet summary ``` 然后ZMap就可以按照配置文件并指定一些必要的附加参数运行了: ``` $ zmap --config=~/.zmap.conf --target-port=443 ``` ### 详细 ZMap可以在屏幕上生成多种类型的输出。默认情况下,Zmap将每隔1秒打印出相似的基本进度信息。可以通过设置`--quiet`来禁用。 ``` 0:01 12%; send: 10000 done (15.1 Kp/s avg); recv: 144 143 p/s (141 p/s avg); hits: 1.44% ``` ZMap同样也可以根据扫描配置打印如下消息,可以通过'--verbosity`参数加以控制。 ``` Aug 11 16:16:12.813 [INFO] zmap: started Aug 11 16:16:12.817 [DEBUG] zmap: no interface provided. will use eth0 Aug 11 16:17:03.971 [DEBUG] cyclic: primitive root: 3489180582 Aug 11 16:17:03.971 [DEBUG] cyclic: starting point: 46588 Aug 11 16:17:03.975 [DEBUG] blacklist: 3717595507 addresses allowed to be scanned Aug 11 16:17:03.975 [DEBUG] send: will send from 1 address on 28233 source ports Aug 11 16:17:03.975 [DEBUG] send: using bandwidth 10000000 bits/s, rate set to 14880 pkt/s Aug 11 16:17:03.985 [DEBUG] recv: thread started ``` ZMap还支持在扫描之后打印出一个的可grep的汇总信息,类似于下面这样,可以通过调用`--summary`来实现。 ``` cnf target-port 443 cnf source-port-range-begin 32768 cnf source-port-range-end 61000 cnf source-addr-range-begin 1.1.1.4 cnf source-addr-range-end 1.1.1.8 cnf maximum-packets 4294967295 cnf maximum-runtime 0 cnf permutation-seed 0 cnf cooldown-period 300 cnf send-interface eth1 cnf rate 45000 env nprocessors 16 exc send-start-time Fri Jan 18 01:47:35 2013 exc send-end-time Sat Jan 19 00:47:07 2013 exc recv-start-time Fri Jan 18 01:47:35 2013 exc recv-end-time Sat Jan 19 00:52:07 2013 exc sent 3722335150 exc blacklisted 572632145 exc first-scanned 1318129262 exc hit-rate 0.874102 exc synack-received-unique 32537000 exc synack-received-total 36689941 exc synack-cooldown-received-unique 193 exc synack-cooldown-received-total 1543 exc rst-received-unique 141901021 exc rst-received-total 166779002 adv source-port-secret 37952 adv permutation-gen 4215763218 ``` ### 结果输出 ZMap可以通过**输出模块**生成不同格式的结果。默认情况下,ZMap只支持**csv**的输出,但是可以通过编译支持**redis**和**json** 。可以使用**输出过滤**来过滤这些发送到输出模块上的结果。输出模块输出的字段由用户指定。默认情况如果没有指定输出文件,ZMap将以csv格式返回结果,而不会生成特定结果。也可以编写自己的输出模块;请参阅[编写输出模块](/article-5860-1.html#exteding)。 **-o, --output-file=p** 输出写入文件地址 **-O, --output-module=p** 调用自定义输出模块 **-f, --output-fields=p** 以逗号分隔的输出的字段列表 **--output-filter=filter** 对给定的探测指定字段输出过滤 **--list-output-modules** 列出可用输出模块 **--list-output-fields** 列出给定的探测的可用输出字段 #### 输出字段 除了IP地址之外,ZMap有很多字段。这些字段可以通过在给定探测模块上运行`--list-output-fields`来查看。 ``` $ zmap --probe-module="tcp_synscan" --list-output-fields saddr string: 应答包中的源IP地址 saddr-raw int: 网络字节格式的源IP地址 daddr string: 应答包中的目的IP地址 daddr-raw int: 网络字节格式的目的IP地址 ipid int: 应答包中的IP识别号 ttl int: 应答包中的ttl(存活时间)值 sport int: TCP 源端口 dport int: TCP 目的端口 seqnum int: TCP 序列号 acknum int: TCP Ack号 window int: TCP 窗口 classification string: 包类型 success int: 是应答包成功 repeat int: 是否是来自主机的重复响应 cooldown int: 是否是在冷却时间内收到的响应 timestamp-str string: 响应抵达时的时间戳使用ISO8601格式 timestamp-ts int: 响应抵达时的时间戳使用UNIX纪元开始的秒数 timestamp-us int: 时间戳的微秒部分(例如 从'timestamp-ts'的几微秒) ``` 可以通过使用`--output-fields=fields`或`-f`来选择选择输出字段,任意组合的输出字段可以被指定为逗号分隔的列表。例如: ``` $ zmap -p 80 -f "response,saddr,daddr,sport,seq,ack,in_cooldown,is_repeat,timestamp" -o output.csv ``` #### 过滤输出 在传到输出模块之前,探测模块生成的结果可以先过滤。过滤是针对探测模块的输出字段的。过滤使用类似于SQL的简单过滤语法写成,通过ZMap的**--output-filter**选项来指定。输出过滤通常用于过滤掉重复的结果,或仅传输成功的响应到输出模块。 过滤表达式的形式为`<字段名> <操作符> <值>`。`<值>`的类型必须是一个字符串或一串无符号整数并且匹配`<字段名>`类型。对于整数比较有效的操作符是`= !=, <, >, <=, >=`。字符串比较的操作是=,!=。`--list-output-fields`可以打印那些可供探测模块选择的字段和类型,然后退出。 复合型的过滤操作,可以通过使用`&&`(逻辑与)和`||`(逻辑或)这样的运算符来组合出特殊的过滤操作。 **示例** 书写一则过滤仅显示成功的、不重复的应答 ``` --output-filter="success = 1 && repeat = 0" ``` 过滤出RST分类并且TTL大于10的包,或者SYNACK分类的包 ``` --output-filter="(classification = rst && ttl > 10) || classification = synack" ``` #### CSV csv模块将会生成以逗号分隔各个要求输出的字段的文件。例如,以下的指令将生成名为`output.csv`的CSV文件。 ``` $ zmap -p 80 -f "response,saddr,daddr,sport,seq,ack,in_cooldown,is_repeat,timestamp" -o output.csv ``` --- ``` #响应, 源地址, 目的地址, 源端口, 目的端口, 序列号, 应答, 是否是冷却模式, 是否重复, 时间戳 response, saddr, daddr, sport, dport, seq, ack, in_cooldown, is_repeat, timestamp synack, 159.174.153.144, 10.0.0.9, 80, 40555, 3050964427, 3515084203, 0, 0,2013-08-15 18:55:47.681 rst, 141.209.175.1, 10.0.0.9, 80, 40136, 0, 3272553764, 0, 0,2013-08-15 18:55:47.683 rst, 72.36.213.231, 10.0.0.9, 80, 56642, 0, 2037447916, 0, 0,2013-08-15 18:55:47.691 rst, 148.8.49.150, 10.0.0.9, 80, 41672, 0, 1135824975, 0, 0,2013-08-15 18:55:47.692 rst, 50.165.166.206, 10.0.0.9, 80, 38858, 0, 535206863, 0, 0,2013-08-15 18:55:47.694 rst, 65.55.203.135, 10.0.0.9, 80, 50008, 0, 4071709905, 0, 0,2013-08-15 18:55:47.700 synack, 50.57.166.186, 10.0.0.9, 80, 60650, 2813653162, 993314545, 0, 0,2013-08-15 18:55:47.704 synack, 152.75.208.114, 10.0.0.9, 80, 52498, 460383682, 4040786862, 0, 0,2013-08-15 18:55:47.707 synack, 23.72.138.74, 10.0.0.9, 80, 33480, 810393698, 486476355, 0, 0,2013-08-15 18:55:47.710 ``` #### Redis Redis的输出模块允许地址被添加到一个Redis的队列,而不是保存到文件,允许ZMap将它与之后的处理工具结合使用。 **注意!** ZMap默认不会编译Redis功能。如果你从源码构建ZMap,可以在CMake的时候加上`-DWITH_REDIS=ON`来增加Redis支持。 #### JSON JSON输出模块用起来类似于CSV模块,只是以JSON格式写入到文件。JSON文件能轻松地导入到其它可以读取JSON的程序中。 **注意!**,ZMap默认不会编译JSON功能。如果你从源码构建ZMap,可以在CMake的时候加上`-DWITH_JSON=ON`来增加JSON支持。 ### 黑名单和白名单 ZMap同时支持对网络前缀做黑名单和白名单。如果ZMap不加黑名单和白名单参数,他将会扫描所有的IPv4地址(包括本地的,保留的以及组播地址)。如果指定了黑名单文件,那么在黑名单中的网络前缀将不再扫描;如果指定了白名单文件,只有那些网络前缀在白名单内的才会扫描。白名单和黑名单文件可以协同使用;黑名单优先于白名单(例如:如果您在白名单中指定了10.0.0.0/8并在黑名单中指定了10.1.0.0/16,那么10.1.0.0/16将不会扫描)。白名单和黑名单文件可以在命令行中指定,如下所示: **-b, --blacklist-file=path** 文件用于记录黑名单子网,以CIDR(无类域间路由)的表示法,例如192.168.0.0/16 **-w, --whitelist-file=path** 文件用于记录限制扫描的子网,以CIDR的表示法,例如192.168.0.0/16 黑名单文件的每行都需要以CIDR的表示格式书写,一行单一的网络前缀。允许使用`#`加以备注。例如: ``` # IANA(英特网编号管理局)记录的用于特殊目的的IPv4地址 # http://www.iana.org/assignments/iana-ipv4-special-registry/iana-ipv4-special-registry.xhtml # 更新于2013-05-22 0.0.0.0/8 # RFC1122: 网络中的所有主机 10.0.0.0/8 # RFC1918: 私有地址 100.64.0.0/10 # RFC6598: 共享地址空间 127.0.0.0/8 # RFC1122: 回环地址 169.254.0.0/16 # RFC3927: 本地链路地址 172.16.0.0/12 # RFC1918: 私有地址 192.0.0.0/24 # RFC6890: IETF协议预留 192.0.2.0/24 # RFC5737: 测试地址1 192.88.99.0/24 # RFC3068: IPv6转换到IPv4的任播 192.168.0.0/16 # RFC1918: 私有地址 192.18.0.0/15 # RFC2544: 检测地址 198.51.100.0/24 # RFC5737: 测试地址2 203.0.113.0/24 # RFC5737: 测试地址3 240.0.0.0/4 # RFC1112: 预留地址 255.255.255.255/32 # RFC0919: 限制广播地址 # IANA记录的用于组播的地址空间 # http://www.iana.org/assignments/multicast-addresses/multicast-addresses.xhtml # 更新于2013-06-25 224.0.0.0/4 # RFC5771: 组播/预留地址ed ``` 如果您只是想扫描因特网中随机的一部分地址,使用[抽样](/article-5860-1.html#ratelimiting)检出,来代替使用白名单和黑名单。 **注意!**ZMap默认设置使用`/etc/zmap/blacklist.conf`作为黑名单文件,其中包含有本地的地址空间和预留的IP空间。通过编辑`/etc/zmap/zmap.conf`可以改变默认的配置。 ### 速度限制与抽样 默认情况下,ZMap将以您当前网卡所能支持的最快速度扫描。以我们对于常用硬件的经验,这通常是理论上Gbit以太网速度的95-98%,这可能比您的上游提供商可处理的速度还要快。ZMap是不会自动的根据您的上游提供商来调整发送速率的。您可能需要手动的调整发送速率来减少丢包和错误结果。 **-r, --rate=pps** 设置最大发送速率以包/秒为单位 **-B, --bandwidth=bps** 设置发送速率以比特/秒(支持G,M和K后缀)。这会覆盖--rate参数。 ZMap同样支持对IPv4地址空间进行指定最大目标数和/或最长运行时间的随机采样。由于每次对主机的扫描是通过随机排序生成的,限制扫描的主机个数为N就会随机抽选N个主机。命令选项如下: **-n, --max-targets=n** 探测目标上限数量 **-N, --max-results=n** 结果上限数量(累积收到这么多结果后退出) **-t, --max-runtime=s** 发送数据包时间长度上限(以秒为单位) **-s, --seed=n** 种子用以选择地址的排列方式。使用不同ZMap执行扫描操作时将种子设成相同的值可以保证相同的扫描顺序。 举个例子,如果您想要多次扫描同样的一百万个互联网主机,您可以设定排序种子和扫描主机的上限数量,大致如下所示: ``` zmap -p 443 -s 3 -n 1000000 -o results ``` 为了确定哪一百万主机将要被扫描,您可以执行预扫,只打印数据包而非发送,并非真的实施扫描。 ``` zmap -p 443 -s 3 -n 1000000 --dryrun | grep daddr | awk -F'daddr: ' '{print $2}' | sed 's/ |.*//;' ``` ### 发送多个数据包 ZMap支持向每个主机发送多个探测。增加这个数量既增加了扫描时间又增加了到达的主机数量。然而,我们发现,增加的扫描时间(每个额外扫描的增加近100%)远远大于到达的主机数量(每个额外扫描的增加近1%)。 **-P, --probes=n** 向每个IP发出的独立探测个数(默认值=1) ### 示例应用 ZMap专为向大量主机发起连接并寻找那些正确响应而设计。然而,我们意识到许多用户需要执行一些后续处理,如执行应用程序级别的握手。例如,用户在80端口实施TCP SYN扫描也许想要实施一个简单的GET请求,还有用户扫描443端口可能希望完成TLS握手。 #### Banner获取 我们收录了一个示例程序,banner-grab,伴随ZMap使用可以让用户从监听状态的TCP服务器上接收到消息。Banner-grab连接到提供的服务器上,发送一个可选的消息,然后打印出收到的第一个消息。这个工具可以用来获取banner,例如HTTP服务的回复的具体指令,telnet登陆提示,或SSH服务的字符串。 下面的例子寻找了1000个监听80端口的服务器,并向每个发送一个简单的GET请求,存储他们的64位编码响应至http-banners.out ``` $ zmap -p 80 -N 1000 -B 10M -o - | ./banner-grab-tcp -p 80 -c 500 -d ./http-req > out ``` 如果想知道更多使用`banner-grab`的细节,可以参考`examples/banner-grab`中的README文件。 **注意!** ZMap和banner-grab(如例子中)同时运行可能会比较显著的影响对方的表现和精度。确保不让ZMap占满banner-grab-tcp的并发连接,不然banner-grab将会落后于标准输入的读入,导致阻塞ZMap的输出写入。我们推荐使用较慢扫描速率的ZMap,同时提升banner-grab-tcp的并发性至3000以内(注意 并发连接>1000需要您使用`ulimit -SHn 100000`和`ulimit -HHn 100000`来增加每个进程的最大文件描述符数量)。当然,这些参数取决于您服务器的性能、连接成功率(hit-rate);我们鼓励开发者在运行大型扫描之前先进行小样本的试验。 #### 建立套接字 我们也收录了另一种形式的banner-grab,就是forge-socket, 重复利用服务器发出的SYN-ACK,连接并最终取得banner。在`banner-grab-tcp`中,ZMap向每个服务器发送一个SYN,并监听服务器发回的带有SYN+ACK的应答。运行ZMap主机的内核接受应答后发送RST,这样就没有与该包关联活动连接。程序banner-grab必须在这之后创建一个新的TCP连接到从服务器获取数据。 在forge-socket中,我们利用内核中同名的模块,使我们可以创建任意参数的TCP连接。可以通过抑制内核的RST包,并重用SYN+ACK的参数取代该包而创建套接字,通过这个套接字收发数据和我们平时使用的连接套接字并没有什么不同。 要使用forge-socket,您需要forge-socket内核模块,从[github](https://github.com/ewust/forge_socket/)上可以获得。您需要`git clone git@github.com:ewust/forge_socket.git`至ZMap源码根目录,然后cd进入forge\_socket目录,运行make。以root身份运行`insmod forge_socket.ko` 来安装该内核模块。 您也需要告知内核不要发送RST包。一个简单的在全系统禁用RST包的方法是使用**iptables**。以root身份运行`iptables -A OUTPUT -p tcp -m tcp --tcp-flgas RST,RST RST,RST -j DROP`即可,当然您也可以加上一项`--dport X`将禁用局限于所扫描的端口(X)上。扫描完成后移除这项设置,以root身份运行`iptables -D OUTPUT -p tcp -m tcp --tcp-flags RST,RST RST,RST -j DROP`即可。 现在应该可以建立forge-socket的ZMap示例程序了。运行需要使用**extended\_file**ZMap[输出模块](/article-5860-1.html#outputmodule): ``` $ zmap -p 80 -N 1000 -B 10M -O extended_file -o - | \ ./forge-socket -c 500 -d ./http-req > ./http-banners.out ``` 详细内容可以参考`examples/forge-socket`目录下的README。 --- ### 编写探测和输出模块 ZMap可以通过**探测模块**来扩展支持不同类型的扫描,通过**输出模块**增加不同类型的输出结果。注册过的探测和输出模块可以在命令行中列出: **--list-probe-modules** 列出安装过的探测模块 **--list-output-modules** 列出安装过的输出模块 #### 输出模块 ZMap的输出和输出后处理可以通过实现和注册扫描器的**输出模块**来扩展。输出模块在接收每一个应答包时都会收到一个回调。然而默认提供的模块仅提供简单的输出,这些模块同样支持更多的输出后处理(例如:重复跟踪或输出AS号码来代替IP地址)。 通过定义一个新的output\_module结构来创建输出模块,并在[output\_modules.c](https://github.com/zmap/zmap/blob/v1.0.0/src/output_modules/output_modules.c)中注册: ``` typedef struct output_module { const char *name; // 在命令行如何引用输出模块 unsigned update_interval; // 以秒为单位的更新间隔 output_init_cb init; // 在扫描器初始化的时候调用 output_update_cb start; // 在扫描器开始的时候调用 output_update_cb update; // 每次更新间隔调用,秒为单位 output_update_cb close; // 扫描终止后调用 output_packet_cb process_ip; // 接收到应答时调用 const char *helptext; // 会在--list-output-modules时打印在屏幕上 } output_module_t; ``` 输出模块必须有名称,通过名称可以在命令行调用,并且通常会实现`success_ip`和常见的`other_ip`回调。process\_ip的回调由每个收到并经由**probe module**过滤的应答包调用。应答是否被认定为成功并不确定(比如,它可以是一个TCP的RST)。这些回调必须定义匹配`output_packet_cb`定义的函数: ``` int (*output_packet_cb) ( ipaddr_n_t saddr, // 网络字节格式的发起扫描主机IP地址 ipaddr_n_t daddr, // 网络字节格式的目的IP地址 const char* response_type, // 发送模块的数据包分类 int is_repeat, // {0: 主机的第一个应答, 1: 后续的应答} int in_cooldown, // {0: 非冷却状态, 1: 扫描器处于冷却中} const u_char* packet, // 指向IP包的iphdr结构体的指针 size_t packet_len // 包的长度,以字节为单位 ); ``` 输出模块还可以通过注册回调,执行在扫描初始化的时候(诸如打开输出文件的任务)、在扫描开始阶段(诸如记录黑名单的任务)、在扫描的常规间隔(诸如状态更新的任务)、在关闭的时候(诸如关掉所有打开的文件描述符)。提供的这些回调可以完整的访问扫描配置和当前状态: ``` int (*output_update_cb)(struct state_conf*, struct state_send*, struct state_recv*); ``` 这些定义在[output\_modules.h](https://github.com/zmap/zmap/blob/master/src/output_modules/output_modules.h)中。在[src/output*modules/module*csv.c](https://github.com/zmap/zmap/blob/master/src/output_modules/module_csv.c)中有可用示例。 #### 探测模块 数据包由**探测模块**构造,它可以创建各种包和不同类型的响应。ZMap默认拥有两个扫描模块:`tcp_synscan`和`icmp_echoscan`。默认情况下,ZMap使用`tcp_synscan`来发送TCP SYN包并对每个主机的响应分类,如打开时(收到SYN+ACK)或关闭时(收到RST)。ZMap允许开发者编写自己的ZMap探测模块,使用如下的API: 任何类型的扫描都必须通过开发和注册`send_module_t`结构中的回调来实现: ``` typedef struct probe_module { const char *name; // 如何在命令行调用扫描 size_t packet_length; // 探测包有多长(必须是静态的) const char *pcap_filter; // 对收到的响应实施PCAP过滤 size_t pcap_snaplen; // libpcap 捕获的最大字节数 uint8_t port_args; // 设为1,如果ZMap需要用户指定--target-port probe_global_init_cb global_initialize; // 在扫描初始化会时被调用一次 probe_thread_init_cb thread_initialize; // 每个包缓存区的线程中被调用一次 probe_make_packet_cb make_packet; // 每个主机更新包的时候被调用一次 probe_validate_packet_cb validate_packet; // 每收到一个包被调用一次, // 如果包无效返回0, // 非零则有效。 probe_print_packet_cb print_packet; // 如果在预扫模式下被每个包都调用 probe_classify_packet_cb process_packet; // 由区分响应的接收器调用 probe_close_cb close; // 扫描终止后被调用 fielddef_t *fields // 该模块指定的字段的定义 int numfields // 字段的数量 } probe_module_t; ``` 在扫描操作初始化时会调用一次`global_initialize`,可以用来实施一些必要的全局配置和初始化操作。然而,`global_initialize`并不能访问包缓冲区,那里是线程特定的。代替的,`thread_initialize`在每个发送线程初始化的时候被调用,提供对于缓冲区的访问,可以用来构建探测包和全局的源和目的值。此回调应用于构建主机不可知的包结构,甚至只有特定值(如:目的主机和校验和),需要随着每个主机更新。例如,以太网头部信息在交换时不会变更(减去校验和是由NIC硬件计算的)因此可以事先定义以减少扫描时间开销。 调用回调参数`make\_packet`是为了让被扫描的主机允许**探测模块**更新主机指定的值,同时提供IP地址、一个非透明的验证字符串和探测数目(如下所示)。探测模块负责在探测中放置尽可能多的验证字符串,即便当服务器返回的应答为空时,探测模块也能验证它的当前状态。例如,针对TCP SYN扫描,tcp\_synscan探测模块会使用TCP源端口和序列号的格式存储验证字符串。响应包(SYN+ACK)将包含目的端口和确认号的预期值。 ``` int make_packet( void *packetbuf, // 包的缓冲区 ipaddr_n_t src_ip, // 网络字节格式源IP ipaddr_n_t dst_ip, // 网络字节格式目的IP uint32_t *validation, // 探测中的有效字符串 int probe_num // 如果向每个主机发送多重探测, // 该值为我们对于该主机 // 正在发送的探测数目 ); ``` 扫描模块也应该定义`pcap_filter`、`validate_packet`和`process_packet`。只有符合PCAP过滤器的包才会被扫描。举个例子,在一个TCP SYN扫描的情况下,我们只想要调查TCP SYN / ACK或RST TCP数据包,并利用类似`tcp && tcp[13] & 4 != 0 || tcp[13] == 18`的过滤方法。`validate_packet`函数将会被每个满足PCAP过滤条件的包调用。如果验证返回的值非零,将会调用`process_packet`函数,并使用`fields`定义的字段和包中的数据填充字段集。举个例子,如下代码为TCP synscan探测模块处理了一个数据包。 ``` void synscan_process_packet(const u_char *packet, uint32_t len, fieldset_t *fs) { struct iphdr *ip_hdr = (struct iphdr *)&packet[sizeof(struct ethhdr)]; struct tcphdr *tcp = (struct tcphdr*)((char *)ip_hdr + (sizeof(struct iphdr))); fs_add_uint64(fs, "sport", (uint64_t) ntohs(tcp->source)); fs_add_uint64(fs, "dport", (uint64_t) ntohs(tcp->dest)); fs_add_uint64(fs, "seqnum", (uint64_t) ntohl(tcp->seq)); fs_add_uint64(fs, "acknum", (uint64_t) ntohl(tcp->ack_seq)); fs_add_uint64(fs, "window", (uint64_t) ntohs(tcp->window)); if (tcp->rst) { // RST packet fs_add_string(fs, "classification", (char*) "rst", 0); fs_add_uint64(fs, "success", 0); } else { // SYNACK packet fs_add_string(fs, "classification", (char*) "synack", 0); fs_add_uint64(fs, "success", 1); } } ``` --- via: <https://zmap.io/documentation.html> 译者:[martin2011qi](https://github.com/martin2011qi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
404
Not Found
null
5,863
Linux mkdir、tar 和 kill 命令的 4 个有用小技巧
http://www.tecmint.com/mkdir-tar-and-kill-commands-in-linux/
2015-07-22T11:20:00
[ "命令行", "技巧" ]
https://linux.cn/article-5863-1.html
我们一直以常规的方式完成一个任务,直到我们知道有更好的处理方法。作为 [Linux 技巧和绝招系列](http://www.tecmint.com/tag/linux-tricks/) 的后续,我会在这里介绍能在各个方面给你帮助的 4 个小技巧。开始吧! ![有用的 Linux 小技巧](/data/attachment/album/201507/22/112017mrp93tjpzeg3oke9.jpg) *4 个有用的 Linux 小技巧* ### 1. 假设你要创建一个类似于下面很长的/复杂的目录树。实现这最有效的方法是什么呢? 类似下面要实现的目录树结构。 ``` $ cd /home/$USER/Desktop $ mkdir tecmint $ mkdir tecmint/etc $ mkdir tecmint/lib $ mkdir tecmint/usr $ mkdir tecmint/bin $ mkdir tecmint/tmp $ mkdir tecmint/opt $ mkdir tecmint/var $ mkdir tecmint/etc/x1 $ mkdir tecmint/usr/x2 $ mkdir tecmint/usr/x3 $ mkdir tecmint/tmp/Y1 $ mkdir tecmint/tmp/Y2 $ mkdir tecmint/tmp/Y3 $ mkdir tecmint/tmp/Y3/z ``` 上述情况可以简单地通过运行下面一行命令来实现。 ``` $ mkdir -p /home/$USER/Desktop/tecmint/{etc/x1,lib,usr/{x2,x3},bin,tmp/{Y1,Y2,Y3/z},opt,var} ``` 你可以用 tree 命令验证。如果没有安装你可以使用 apt 或 yum 安装 ‘tree’ 软件包。 ``` $ tree tecmint ``` ![检查目录结构](/data/attachment/album/201507/22/112017nknb6upiwipib6ub.png) *检查目录结构* 我们可以用上面的方式创建任意复杂的目录树结构。注意这仅仅是一个普通的命令,但是用 ‘{}’ 来创建层级目录。需要的时候如果在 shell 脚本中使用是非常有用的。 ### 2. 在桌面(/home/$USER/Desktop)创建一个文件(例如 test)并填入以下内容。 ``` ABC DEF GHI JKL MNO PQR STU VWX Y Z ``` 这种情况一个普通用户会怎么做呢? a. 他首先会创建文件,最好使用 [touch 命令](http://www.tecmint.com/8-pratical-examples-of-linux-touch-command/),例如: ``` $ touch /home/$USER/Desktop/test ``` b. 他会用一个文本编辑器打开文件,这可能是 nano、vim 或其它编辑器。 ``` $ nano /home/$USER/Desktop/test ``` c. 然后他会将上面的内容输入到文件中,保存并退出。 忽略他/她使用的时间,他至少需要 3 步来执行上面的情况。 一个经验丰富的 Linux 用户会怎么做呢?他会在终端中输入下面的文本然后就完成所有任务。他不需要单独执行每一步。 ``` cat << EOF > /home/$USER/Desktop/test ABC DEF GHI JKL MNO PQR STU VWX Y Z EOF ``` 你可以用 ‘cat’ 命令检查是否成功创建了文件和内容。 ``` $ cat /home/avi/Desktop/test ``` ![检查文件内容](/data/attachment/album/201507/22/112018v3fz5fn3amab6nb5.gif) ### 3. 我们经常在 Linux 中处理归档文件(尤其是 TAR 包)。很多情况下我们会在某些位置,而不是在 Downloads 目录中使用 TAR 包。这种情况下我们怎么做呢? 在这种情况下我们通常会做两件事。 a. 复制/移动 tar 包到目标位置并解压,例如: ``` $ cp firefox-37.0.2.tar.bz2 /opt/ 或 $ mv firefox-37.0.2.tar.bz2 /opt/ ``` b. cd 到 /opt/ 目录。 ``` $ cd /opt/ ``` c. 解压 tar 包。 ``` # tar -jxvf firefox-37.0.2.tar.bz2 ``` 我们也可以采用另外一种方式。 我们也可以在 Tar 包所在位置解压并复制/移动解压后的文件到所需的目标位置,例如: ``` $ tar -jxvf firefox-37.0.2.tar.bz2 $ cp -R firefox/ /opt/ 或 $ mv firefox/ /opt/ ``` 不管哪种方式都需要两步才能完成任务。专业的人可以只用一步就完成这个任务: ``` $ tar -jxvf firefox-37.0.2.tar.bz2 -C /opt/ ``` -C 选项提取文件到指定目录(这里是 /opt/)。 这并不是关于选项(-C)的问题,**而是习惯的问题**。养成使用带 -C 选项 tar 命令的习惯。这会使你的工作更加轻松。从现在开始不要再移动归档文件或复制/移动解压后的文件了,在 Downloads 文件夹保存 tar 包并解压到你想要的任何地方吧。 ### 4. 常规方式我们怎样杀掉一个进程? 最普遍的方法,我们首先用 `ps -A` 命令列出所有进程,然后通过管道输入到 grep 来查找进程/服务(假如 apache2),如下: ``` $ ps -A | grep -i apache2 ``` 输出样例 ``` 1006 ? 00:00:00 apache2 2702 ? 00:00:00 apache2 2703 ? 00:00:00 apache2 2704 ? 00:00:00 apache2 2705 ? 00:00:00 apache2 2706 ? 00:00:00 apache2 2707 ? 00:00:00 apache2 ``` 上面的输出显示了所有正在运行 apache2 的进程以及它们的 PID,然后你可以使用这些 PID 在下面命令的帮助下杀掉 apache2。 ``` # kill 1006 2702 2703 2704 2705 2706 2707 ``` 然后交叉检查是否还有名称中包含 ‘apache2’ 的进程/服务在运行,如下: ``` $ ps -A | grep -i apache2 ``` 实际上我们可以使用类似 pgrep 和 pkill 的工具以一种更容易理解的方式实现。你可以使用 pgrep 找到和一个进程相关的信息。假如你要找和 apache2 相关的进程信息,你只需要运行: ``` $ pgrep apache2 ``` 输出样例 ``` 15396 15400 15401 15402 15403 15404 15405 ``` 你也可以通过运行下面命令列出进程名称以及 pid。 ``` $ pgrep -l apache2 ``` 输出样例 ``` 15396 apache2 15400 apache2 15401 apache2 15402 apache2 15403 apache2 15404 apache2 15405 apache2 ``` 用 pkill 杀掉进程非常简单。你只需要输入想要杀死的资源名称。我写了一篇关于 pkill 的博文,你可以参考: <http://www.tecmint.com/how-to-kill-a-process-in-linux/>。 用 pkill 杀死一个进程(例如 apache2),你只需要输入以下命令: ``` # pkill apache2 ``` 你可以通过运行下面命令验证是否杀掉了 apache2。 ``` $ pgrep -l apache2 ``` 它没有输出任何东西并返回到窗口意味着没有名称中包含 apache2 的进程在运行。 这就是我要说的所有东西。上面讨论的点肯定远远不够,但也肯定对你有所帮助。我们不仅仅是介绍教程使你学到一些新的东西,更重要的是想告诉你 ‘**在同样的情况下如何变得更有效率**’。在下面的评论框中告诉我们你的反馈吧。保持联系,继续评论。 --- via: <http://www.tecmint.com/mkdir-tar-and-kill-commands-in-linux/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,864
Ubuntu 下 CCleaner 的 4 个替代品
http://itsfoss.com/ccleaner-alternatives-ubuntu-linux/
2015-07-22T11:32:00
[ "清理", "BleachBit", "Sweeper" ]
https://linux.cn/article-5864-1.html
![](/data/attachment/album/201507/22/113256z2dnfn5dfvvhyhzh.jpg) 回首我使用 Windows 的那些日子,[CCleaner](https://www.piriform.com/ccleaner/download) 是我用来释放空间、删除垃圾文件和加速 Windows 的最喜爱的工具。我知道,当从 Windows 切换到 Linux 时,我并不是唯一期望 CCleaner 拥有 Linux 版本的人。假如你正在寻找 Linux 下 CCleaner 的替代品,我将在下面列举 4 个这样的应用,它们可以用来清理 Ubuntu 或基于 Ubuntu 的 Linux 发行版本。但在我们看这个清单之前,先让我们考虑一下 Linux 是否需要系统清理工具这个问题。 ### Linux 需要像 CCleaner 那样的系统清理工具吗? 为了得到答案,让我们看看 CCleaner 做了什么。正如 [How-To Geek](http://www.howtogeek.com/172820/beginner-geek-what-does-ccleaner-do-and-should-you-use-it/) 的这篇文章中所提到的那样: > > CCleaner 有两个主要的功能。一是:它扫描并删除无用的文件,释放磁盘空间。二是:它擦除隐私的数据,例如你的浏览记录和在各种软件中最近打开的文件列表。 > > > 所以,概括起来,它在系统范围内清理在你的浏览器或媒体播放器中的临时文件。你或许知道 Windows 有在系统中保存垃圾文件的喜好,那 Linux 呢?它是如何处理临时文件的呢? 与 Windows 不同, Linux 自动地清理所有的临时文件(在 `/tmp` 中存储)。在 Linux 中没有注册表,这进一步减轻了头痛。在最坏情况下,你可能会有一些损坏的不再需要的软件包,以及丢失一些网络浏览历史记录, cookies ,缓存等。 ### 这意味着 Linux 不必需要系统清理工具了吗? * 假如你可以运行某些命令来清理偶尔使用的软件包,手动删除浏览历史记录等,那么答案是:不需要; * 假如你不想不断地从一个地方跳到另一个地方来运行命令,并想用一个工具来删除所有可通过一次或多次点击所选择的东西,那么答案是:需要。 假如你的答案是“需要”,就让我们继续看看一些类似于 CCleaner 的工具,用它们清理你的 Ubuntu 系统。 ### Ubuntu 下 CCleaner 的替代品 请注意,我使用的系统是 Ubuntu,因为下面讨论的一些工具只存在于基于 Ubuntu 的 Linux 发行版本中,而另外一些在所有的 Linux 发行版本中都可使用。 #### 1. BleachBit ![BleachBit 针对 Linux 的系统清理工具](/data/attachment/album/201507/22/113256s3a8rinnpa8ov0bk.jpg) [BleachBit](http://bleachbit.sourceforge.net/) 是一个跨平台的应用程序,在 Windows 和 Linux 平台下都可使用。它有一个很长的支持清理的程序的列表,这样可以让你选择性的清理缓存,cookies 和日志文件。让我们快速浏览它的特点: * 简洁的图形界面确认框,你可以预览或删除 * 支持多平台: Linux 和 Windows * 免费且开源 * 粉碎文件以隐藏它们的内容并防止数据恢复 * 重写空闲的磁盘空间来隐藏先前删除的文件内容 * 也拥有命令行界面 默认情况下,在 Ubuntu 14.04 and 15.04 中都可以获取到 BleachBit,你可以在终端中使用下面的命令来安装: ``` sudo apt-get install bleachbit ``` 对于所有主流的 Linux 发行版本, BleachBit 提供有二进制程序,你可以从下面的链接中下载到 BleachBit: * [下载 BleachBit 的 Linux 版本](http://bleachbit.sourceforge.net/download/linux) #### 2. Sweeper ![Sweeper 针对 Ubuntu 的系统清理工具](/data/attachment/album/201507/22/113257djpgvpqrbvzgvjvi.jpg) Sweeper 是一个系统清理工具,它是[KDE SC utilities](https://www.kde.org/applications/utilities/) 模块的一部分。它的主要特点有: * 移除与网络相关的痕迹: cookies, 历史,缓存等 * 移除图形缩略图缓存 * 清理应用和文件的历史记录 默认情况下,Sweeper 在 Ubuntu 的软件仓库中可以得到。可以在终端中使用下面的命令来安装 Sweeper: ``` sudo apt-get install sweeper ``` #### 3. Ubuntu Tweak ![清理 Ubuntu 系统的 Ubuntu Tweak 工具 ](/data/attachment/album/201507/22/113257uvvnr7vr83trsvtv.jpg) 正如它的名称所说的那样,[Ubuntu Tweak](http://ubuntu-tweak.com/) 是一个调整工具,而不仅仅是一个清理应用。除了调整诸如 compiz 设置,面板的配置,开机启动程序的控制,电源管理等,Ubuntu Tweak 还提供一个清理选项,它可以让你: * 清理浏览器缓存 * 清理 Ubuntu 软件中心缓存 * 清理缩略图缓存 * 清理 apt 仓库缓存 * 清理旧的内核文件 * 清理软件包配置 你可以从下面的链接中得到 Ubuntu Tweak 的 `.deb` 安装文件: * [下载 Ubuntu Tweak](http://ubuntu-tweak.com/) #### 4. GCleaner (beta) ![GCleaner 类似 CCleaner 的工具](/data/attachment/album/201507/22/113258yt9w3q89986ew399.jpg) 作为 elementary OS Freya 的第三方应用, GCleaner 旨在成为 GNU 世界的 CCleaner,其界面与 CCleaner 非常相似。它的一些主要特点有: * 清理浏览器历史记录 * 清理应用缓存 * 清理软件包及其配置 * 清理最近使用的文件历史记录 * 清空垃圾箱 在书写本文时, GCleaner 仍处于开发阶段,你可以查看这个项目的网站,并得到源代码来编译和使用 GCleaner。 * [更多地了解 GCleaner](https://quassy.github.io/elementary-apps/GCleaner/) ### 你的选择呢? 我已经向你列举了一些可能选项,我让你选择决定使用哪个工具来清理 Ubuntu 14.04。但我可以肯定的是,若你之前一直在寻找一个类似 CCleaner 的应用,以上列举的 4 个工具之一成为了你最后的选择。 --- via: <http://itsfoss.com/ccleaner-alternatives-ubuntu-linux/> 作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,867
在 RHEL/CentOS 上为Web服务器架设 “XR”(Crossroads) 负载均衡器
http://www.tecmint.com/setting-up-xr-crossroads-load-balancer-for-web-servers-on-rhel-centos/
2015-07-23T07:22:00
[ "Crossroads", "负载均衡" ]
https://linux.cn/article-5867-1.html
Crossroads 是一个独立的服务,它是一个用于Linux和TCP服务的开源负载均衡和故障转移实用程序。它可用于HTTP,HTTPS,SSH,SMTP 和 DNS 等,它也是一个多线程的工具,在提供负载均衡服务时,它可以只使用一块内存空间以此来提高性能。 首先来看看 XR 是如何工作的。我们可以将 XR 放到网络客户端和服务器之间,它可以将客户端的请求分配到服务器上以平衡负载。 如果一台服务器宕机,XR 会转发客户端请求到另一个服务器,所以客户感觉不到停顿。看看下面的图来了解什么样的情况下,我们要使用 XR 处理。 ![Install XR Crossroads Load Balancer](/data/attachment/album/201507/22/233024yqxkjhzcp4uzequb.jpg) *安装 XR Crossroads 负载均衡器* 这里有两个 Web 服务器,一个网关服务器,我们将在网关服务器上安装和设置 XR 以接收客户端请求,并分发到服务器。 XR Crossroads 网关服务器:172.16.1.204 Web 服务器01:172.16.1.222 Web 服务器02:192.168.1.161 在上述情况下,我们网关服务器(即 XR Crossroads)的IP地址是172.16.1.204,webserver01 为172.16.1.222,它监听8888端口,webserver02 是192.168.1.161,它监听端口5555。 现在,我们需要的是均衡所有的请求,通过 XR 网关从网上接收请求然后分发它到两个web服务器已达到负载均衡。 ### 第1步:在网关服务器上安装 XR Crossroads 负载均衡器 **1. 不幸的是,没有为 crossroads 提供可用的 RPM 包,我们只能从源码安装。** 要编译 XR,你必须在系统上安装 C++ 编译器和 GNU make 组件,才能避免安装错误。 ``` # yum install gcc gcc-c++ make ``` 接下来,去他们的官方网站([https://crossroads.e-tunity.com](https://crossroads.e-tunity.com/))下载此压缩包(即 crossroads-stable.tar.gz)。 或者,您可以使用 wget 去下载包然后解压在任何位置(如:/usr/src/),进入解压目录,并使用 “make install” 命令安装。 ``` # wget https://crossroads.e-tunity.com/downloads/crossroads-stable.tar.gz # tar -xvf crossroads-stable.tar.gz # cd crossroads-2.74/ # make install ``` ![Install XR Crossroads Load Balancer](/data/attachment/album/201507/22/233027u0e8fgz9853exfe5.png) *安装 XR Crossroads 负载均衡器* 安装完成后,二进制文件安装在 /usr/sbin 目录下,XR 的配置文件在 /etc 下名为 “xrctl.xml” 。 **2. 最后一个条件,你需要两个web服务器。为了方便使用,我在一台服务器中创建两个 Python SimpleHTTPServer 实例。** 要了解如何设置一个 python SimpleHTTPServer,请阅读我们此处的文章 [使用 SimpleHTTPServer 轻松创建两个 web 服务器](http://www.tecmint.com/python-simplehttpserver-to-create-webserver-or-serve-files-instantly/). 正如我所说的,我们要使用两个web服务器,webserver01 通过8888端口运行在172.16.1.222上,webserver02 通过5555端口运行在192.168.1.161上。 ![XR WebServer 01](/data/attachment/album/201507/22/233028d18ep1oalhz160do.jpg) *XR WebServer 01* ![XR WebServer 02](/data/attachment/album/201507/22/233028s0n1y7kffk327kmn.jpg) *XR WebServer 02* ### 第2步: 配置 XR Crossroads 负载均衡器 **3. 所需都已经就绪。现在我们要做的就是配置`xrctl.xml` 文件并通过 XR 服务器接受来自互联网的请求分发到 web 服务器上。** 现在用 [vi/vim 编辑器](http://www.tecmint.com/vi-editor-usage/)打开`xrctl.xml`文件。 ``` # vim /etc/xrctl.xml ``` 并作如下修改。 ``` <?xml version="1.0" encoding="UTF-8"?> <configuration> <system> <uselogger>true</uselogger> <logdir>/tmp</logdir> </system> <service> <name>Tecmint</name> <server> <address>172.16.1.204:8080</address> <type>tcp</type> <webinterface>0:8010</webinterface> <verbose>yes</verbose> <clientreadtimeout>0</clientreadtimeout> <clientwritetimout>0</clientwritetimeout> <backendreadtimeout>0</backendreadtimeout> <backendwritetimeout>0</backendwritetimeout> </server> <backend> <address>172.16.1.222:8888</address> </backend> <backend> <address>192.168.1.161:5555</address> </backend> </service> </configuration> ``` ![Configure XR Crossroads Load Balancer](/data/attachment/album/201507/22/233030cv5iiutrifz5i3ua.jpg) *配置 XR Crossroads 负载均衡器* 在这里,你可以看到在 xrctl.xml 中配置了一个非常基本的 XR 。我已经定义了 XR 服务器在哪里,XR 的后端服务和端口及 XR 的 web 管理界面是什么。 **4. 现在,你需要通过以下命令来启动该 XR 守护进程。** ``` # xrctl start # xrctl status ``` ![Start XR Crossroads](/data/attachment/album/201507/22/233032ewblzowertrqbbee.jpg) *启动 XR Crossroads* **5. 好的。现在是时候来检查该配置是否可以工作正常了。打开两个网页浏览器,输入 XR 服务器的 IP 地址和端口,并查看输出。** ![Verify Web Server Load Balancing](/data/attachment/album/201507/22/233039fhsjp7cng7b5bh26.jpg) *验证 Web 服务器负载均衡* 太棒了。它工作正常。是时候玩玩 XR 了。(LCTT 译注:可以看到两个请求分别分配到了不同服务器。) **6. 现在可以通过我们配置的网络管理界面的端口来登录到 XR Crossroads 仪表盘。在浏览器输入你的 XR 服务器的 IP 地址和你配置在 xrctl.xml 中的管理端口。** ``` http://172.16.1.204:8010 ``` ![XR Crossroads Dashboard](/data/attachment/album/201507/22/233044kbwqxxq3bh8bhk38.jpg) *XR Crossroads 仪表盘* 看起来像上面一样。它容易理解,用户界面​​友好,易于使用。它在右上角显示每个服务器能容纳多少个连接,以及关于接收该请求的附加细节。你也可以设置每个服务器承担的负载量,最大连接数和平均负载等。 最大的好处是,即使没有配置文件 xrctl.xml,你也可以做到这一点。你唯一要做的就是运行以下命令,它就会把这一切搞定。 ``` # xr --verbose --server tcp:172.16.1.204:8080 --backend 172.16.1.222:8888 --backend 192.168.1.161:5555 ``` 上面语法的详细说明: * -verbose 将显示命令执行后的信息。 * -server 定义你在安装包中的 XR 服务器。 * -backend 定义你需要平衡分配到 Web 服务器的流量。 * tcp 说明我们使用 TCP 服务。 欲了解更多详情,有关文件及 CROSSROADS 的配置,请访问他们的官方网站: <https://crossroads.e-tunity.com/>. XR Corssroads 使用许多方法来提高服务器性能,避免宕机,让你的管理任务更轻松,更简便。希望你喜欢此文章,并随时在下面发表你的评论和建议,方便与我们保持联系。 --- via: <http://www.tecmint.com/setting-up-xr-crossroads-load-balancer-for-web-servers-on-rhel-centos/> 作者:[Thilina Uvindasiri](http://www.tecmint.com/author/thilidhanushka/) 译者:[strugglingyouth](https://github.com/strugglingyouth) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,868
PHP 安全编程建议
http://www.codeproject.com/Articles/363897/PHP-Security
2015-07-23T08:00:00
[ "PHP", "安全" ]
https://linux.cn/article-5868-1.html
![](/data/attachment/album/201507/23/005118mdn88qq876c6687a.jpg) ### 简介 要提供互联网服务,当你在开发代码的时候必须时刻保持安全意识。可能大部分 PHP 脚本都对安全问题都不在意,这很大程度上是因为有大量的*无经验程序员*在使用这门语言。但是,没有理由让你因为对你的代码的不确定性而导致不一致的安全策略。当你在服务器上放任何涉及到钱的东西时,就有可能会有人尝试破解它。创建一个论坛程序或者任何形式的购物车,被攻击的可能性就上升到了无穷大。 ### 背景 为了确保你的 web 内容安全,这里有一些常规的安全准则: #### 别相信表单 攻击表单很简单。通过使用一个简单的 JavaScript 技巧,你可以限制你的表单只允许在评分域中填写 1 到 5 的数字。如果有人关闭了他们浏览器的 JavaScript 功能或者提交自定义的表单数据,你客户端的验证就失败了。 用户主要通过表单参数和你的脚本交互,因此他们是最大的安全风险。你应该学到什么呢?在 PHP 脚本中,总是要验证 传递给任何 PHP 脚本的数据。在本文中,我们向你演示了如何分析和防范跨站脚本(XSS)攻击,它可能会劫持用户凭据(甚至更严重)。你也会看到如何防止会玷污或毁坏你数据的 MySQL 注入攻击。 #### 别相信用户 假定你网站获取的每一份数据都充满了有害的代码。清理每一部分,即便你相信没有人会尝试攻击你的站点。 #### 关闭全局变量 你可能会有的最大安全漏洞是启用了 register\_globals 配置参数。幸运的是,PHP 4.2 及以后版本默认关闭了这个配置。如果打开了 **register\_globals**,你可以在你的 php.ini 文件中通过改变 register\_globals 变量为 Off 关闭该功能: ``` register_globals = Off ``` 新手程序员觉得注册全局变量很方便,但他们不会意识到这个设置有多么危险。一个启用了全局变量的服务器会自动为全局变量赋任何形式的参数。为了了解它如何工作以及为什么有危险,让我们来看一个例子。 假设你有一个称为 process.php 的脚本,它会向你的数据库插入表单数据。初始的表单像下面这样: ``` <input name="username" type="text" size="15" maxlength="64"> ``` 运行 process.php 的时候,启用了注册全局变量的 PHP 会将该参数赋值到 $username 变量。这会比通过 **$\_POST['username']** 或 **$\_GET['username']** 访问它节省击键次数。不幸的是,这也会给你留下安全问题,因为 PHP 会设置该变量的值为通过 GET 或 POST 的参数发送到脚本的任何值,如果你没有显示地初始化该变量并且你不希望任何人去操作它,这就会有一个大问题。 看下面的脚本,假如 $authorized 变量的值为 true,它会给用户显示通过验证的数据。正常情况下,只有当用户正确通过了这个假想的 authenticated\_user() 函数验证,$authorized 变量的值才会被设置为真。但是如果你启用了 **register\_globals**,任何人都可以发送一个 GET 参数,例如 authorized=1 去覆盖它: ``` <?php // Define $authorized = true only if user is authenticated if (authenticated_user()) { $authorized = true; } ?> ``` 这个故事的寓意是,你应该从预定义的服务器变量中获取表单数据。所有通过 post 表单传递到你 web 页面的数据都会自动保存到一个称为 **$\_POST** 的大数组中,所有的 GET 数据都保存在 **$\_GET** 大数组中。文件上传信息保存在一个称为 **$\_FILES** 的特殊数据中。另外,还有一个称为 **$\_REQUEST** 的复合变量。 要从一个 POST 方法表单中访问 username 字段,可以使用 **$\_POST['username']**。如果 username 在 URL 中就使用 **$\_GET['username']**。如果你不确定值来自哪里,用 **$\_REQUEST['username']**。 ``` <?php $post_value = $_POST['post_value']; $get_value = $_GET['get_value']; $some_variable = $_REQUEST['some_value']; ?> ``` $\_REQUEST 是 $\_GET、$\_POST、和 $\_COOKIE 数组的结合。如果你有两个或多个值有相同的参数名称,注意 PHP 会使用哪个。默认的顺序是 cookie、POST、然后是 GET。 #### 推荐安全配置选项 这里有几个会影响安全功能的 PHP 配置设置。下面是一些显然应该用于生产服务器的: * **register\_globals** 设置为 off * **safe\_mode** 设置为 off * **error\_reporting** 设置为 off。如果出现错误了,这会向用户浏览器发送可见的错误报告信息。对于生产服务器,使用错误日志代替。开发服务器如果在防火墙后面就可以启用错误日志。(LCTT 译注:此处据原文逻辑和常识,应该是“开发服务器如果在防火墙后面就可以启用错误报告,即 on。”) * 停用这些函数:system()、exec()、passthru()、shell\_exec()、proc\_open()、和 popen()。 * **open\_basedir** 为 /tmp(以便保存会话信息)目录和 web 根目录,以便脚本不能访问这些选定区域外的文件。 * **expose\_php** 设置为 off。该功能会向 Apache 头添加包含版本号的 PHP 签名。 * **allow\_url\_fopen** 设置为 off。如果你能够注意你代码中访问文件的方式-也就是你验证所有输入参数,这并不严格需要。 * **allow\_url\_include** 设置为 off。对于任何人来说,实在没有明智的理由会想要访问通过 HTTP 包含的文件。 一般来说,如果你发现想要使用这些功能的代码,你就不应该相信它。尤其要小心会使用类似 system() 函数的代码-它几乎肯定有缺陷。 启用了这些设置后,让我们来看看一些特定的攻击以及能帮助你保护你服务器的方法。 ### SQL 注入攻击 由于 PHP 传递到 MySQL 数据库的查询语句是用强大的 SQL 编程语言编写的,就有了某些人通过在 web 查询参数中使用 MySQL 语句尝试 SQL 注入攻击的风险。通过在参数中插入有害的 SQL 代码片段,攻击者会尝试进入(或破坏)你的服务器。 假如说你有一个最终会放入变量 $product 的表单参数,你使用了类似下面的 SQL 语句: ``` $sql = "select * from pinfo where product = '$product'"; ``` 如果参数是直接从表单中获得的,应该使用 PHP 自带的数据库特定转义函数,类似: ``` $sql = 'Select * from pinfo where product = '"' mysql_real_escape_string($product) . '"'; ``` 如果不这样做的话,有人也许会把下面的代码段放到表单参数中: ``` 39'; DROP pinfo; SELECT 'FOO ``` 那么 $sql 的结果就是: ``` select product from pinfo where product = '39'; DROP pinfo; SELECT 'FOO' ``` 由于分号是 MySQL 的语句分隔符,数据库会运行下面三条语句: ``` select * from pinfo where product = '39' DROP pinfo SELECT 'FOO' ``` 好了,你丢失了你的表。 注意实际上 PHP 和 MySQL 不会运行这种特殊语法,因为 **mysql\_query()** 函数只允许每个请求处理一个语句。但是,一个子查询仍然会生效。 要防止 SQL 注入攻击,做这两件事: * 总是验证所有参数。例如,如果需要一个数字,就要确保它是一个数字。 * 总是对数据使用 mysql\_real\_escape\_string() 函数转义数据中的任何引号和双引号。 **注意:要自动转义任何表单数据,可以启用魔术引号(Magic Quotes)。** 一些 MySQL 破坏可以通过限制 MySQL 用户权限避免。任何 MySQL 账户可以限制为只允许对选定的表进行特定类型的查询。例如,你可以创建只能选择行的 MySQL 用户。但是,这对于动态数据并不十分有用,另外,如果你有敏感的用户信息,可能某些人能访问其中一些数据,但你并不希望如此。例如,一个访问账户数据的用户可能会尝试注入访问另一个人的账户号码的代码,而不是为当前会话指定的号码。 ### 防止基本的 XSS 攻击 XSS 表示跨站脚本。不像大部分攻击,该漏洞发生在客户端。XSS 最常见的基本形式是在用户提交的内容中放入 JavaScript 以便偷取用户 cookie 中的数据。由于大部分站点使用 cookie 和 session 验证访客,偷取的数据可用于模拟该用户-如果是一个常见的用户账户就会深受麻烦,如果是管理员账户甚至是彻底的惨败。如果你不在站点中使用 cookie 和 session ID,你的用户就不容易被攻击,但你仍然应该明白这种攻击是如何工作的。 不像 MySQL 注入攻击,XSS 攻击很难预防。Yahoo、eBay、Apple、以及 Microsoft 都曾经受 XSS 影响。尽管攻击不包含 PHP,但你可以使用 PHP 来剥离用户数据以防止攻击。为了防止 XSS 攻击,你应该限制和过滤用户提交给你站点的数据。正是因为这个原因,大部分在线公告板都不允许在提交的数据中使用 HTML 标签,而是用自定义的标签格式代替,例如 **[b]** 和 **[linkto]**。 让我们来看一个如何防止这类攻击的简单脚本。对于更完善的解决办法,可以使用 SafeHTML,本文的后面部分会讨论到。 ``` function transform_HTML($string, $length = null) { // Helps prevent XSS attacks // Remove dead space. $string = trim($string); // Prevent potential Unicode codec problems. $string = utf8_decode($string); // HTMLize HTML-specific characters. $string = htmlentities($string, ENT_NOQUOTES); $string = str_replace("#", "&#35;", $string); $string = str_replace("%", "&#37;", $string); $length = intval($length); if ($length > 0) { $string = substr($string, 0, $length); } return $string; } ``` 这个函数将 HTML 特定的字符转换为 HTML 字面字符。一个浏览器对任何通过这个脚本的 HTML 以非标记的文本呈现。例如,考虑下面的 HTML 字符串: ``` <STRONG>Bold Text</STRONG> ``` 一般情况下,HTML 会显示为:**Bold Text** 但是,通过 **transform\_HTML()** 后,它就像原始输入一样呈现。原因是处理的字符串中的标签字符串转换为 HTML 实体。**transform\_HTML()** 的结果字符串的纯文本看起来像下面这样: ``` <STRONG>Bold Text</STRONG> ``` 该函数的实质是 htmlentities() 函数调用,它会将 <、>、和 & 转换为 **&lt;**、**&gt;**、和 **&amp;**。尽管这会处理大部分的普通攻击,但有经验的 XSS 攻击者有另一种把戏:用十六进制或 UTF-8 编码恶意脚本,而不是采用普通的 ASCII 文本,从而希望能绕过你的过滤器。他们可以在 URL 的 GET 变量中发送代码,告诉浏览器,“这是十六进制代码,你能帮我运行吗?” 一个十六进制例子看起来像这样: ``` <a href="http://host/a.php?variable=%22%3e %3c%53%43%52%49%50%54%3e%44%6f%73%6f%6d%65%74%68%69%6e%67%6d%61%6c%69%63%69%6f%75%73%3c%2f%53%43%52%49%50%54%3e"> ``` 浏览器渲染这个信息的时候,结果就是: ``` <a href="http://host/a.php?variable="> <SCRIPT>Dosomethingmalicious</SCRIPT> ``` 为了防止这种情况,transform\_HTML() 采用额外的步骤把 # 和 % 符号转换为它们的实体,从而避免十六进制攻击,并转换 UTF-8 编码的数据。 最后,为了防止某些人用很长的输入超载字符串从而导致某些东西崩溃,你可以添加一个可选的 $length 参数来截取你指定最大长度的字符串。 ### 使用 SafeHTML 之前脚本的问题比较简单,它不允许任何类型的用户标记。不幸的是,这里有上百种方法能使 JavaScript 跳过用户的过滤器,并且要从用户输入中剥离全部 HTML,还没有方法可以防止这种情况。 当前,没有任何一个脚本能保证无法被破解,尽管有一些确实比大部分要好。有白名单和黑名单两种方法加固安全,白名单比较简单而且更加有效。 一个白名单解决方案是 PixelApes 的 SafeHTML 反跨站脚本解析器。 SafeHTML 能识别有效 HTML,能追踪并剥离任何危险标签。它用另一个称为 HTMLSax 的软件包进行解析。 按照下面步骤安装和使用 SafeHTML: 1. 到 <http://pixel-apes.com/safehtml/?page=safehtml> 下载最新版本的 SafeHTML。 2. 把文件放到你服务器的类文件夹。该文件夹包括 SafeHTML 和 HTMLSax 功能所需的所有东西。 3. 在脚本中 `include` SafeHTML 类文件(safehtml.php)。 4. 创建一个名为 $safehtml 的新 SafeHTML 对象。 5. 用 $safehtml->parse() 方法清理你的数据。 这是一个完整的例子: ``` <?php /* If you're storing the HTMLSax3.php in the /classes directory, along with the safehtml.php script, define XML_HTMLSAX3 as a null string. */ define(XML_HTMLSAX3, ''); // Include the class file. require_once('classes/safehtml.php'); // Define some sample bad code. $data = "This data would raise an alert <script>alert('XSS Attack')</script>"; // Create a safehtml object. $safehtml = new safehtml(); // Parse and sanitize the data. $safe_data = $safehtml->parse($data); // Display result. echo 'The sanitized data is <br />' . $safe_data; ?> ``` 如果你想清理脚本中的任何其它数据,你不需要创建一个新的对象;在你的整个脚本中只需要使用 $safehtml->parse() 方法。 #### 什么可能会出现问题? 你可能犯的最大错误是假设这个类能完全避免 XSS 攻击。SafeHTML 是一个相当复杂的脚本,几乎能检查所有事情,但没有什么是能保证的。你仍然需要对你的站点做参数验证。例如,该类不能检查给定变量的长度以确保能适应数据库的字段。它也不检查缓冲溢出问题。 XSS 攻击者很有创造力,他们使用各种各样的方法来尝试达到他们的目标。可以阅读 RSnake 的 XSS 教程<http://ha.ckers.org/xss.html> ,看一下这里有多少种方法尝试使代码跳过过滤器。SafeHTML 项目有很好的程序员一直在尝试阻止 XSS 攻击,但无法保证某些人不会想起一些奇怪和新奇的方法来跳过过滤器。 **注意:XSS 攻击严重影响的一个例子 <http://namb.la/popular/tech.html>,其中显示了如何一步一步创建一个让 MySpace 服务器过载的 JavaScript XSS 蠕虫。** ### 用单向哈希保护数据 该脚本对输入的数据进行单向转换,换句话说,它能对某人的密码产生哈希签名,但不能解码获得原始密码。为什么你希望这样呢?应用程序会存储密码。一个管理员不需要知道用户的密码,事实上,只有用户知道他/她自己的密码是个好主意。系统(也仅有系统)应该能识别一个正确的密码;这是 Unix 多年来的密码安全模型。单向密码安全按照下面的方式工作: 1. 当一个用户或管理员创建或更改一个账户密码时,系统对密码进行哈希并保存结果。主机系统会丢弃明文密码。 2. 当用户通过任何方式登录到系统时,再次对输入的密码进行哈希。 3. 主机系统丢弃输入的明文密码。 4. 当前新哈希的密码和之前保存的哈希相比较。 5. 如果哈希的密码相匹配,系统就会授予访问权限。 主机系统完成这些并不需要知道原始密码;事实上,原始密码完全无所谓。一个副作用是,如果某人侵入系统并盗取了密码数据库,入侵者会获得很多哈希后的密码,但无法把它们反向转换为原始密码。当然,给足够时间、计算能力,以及弱用户密码,一个攻击者还是有可能采用字典攻击找出密码。因此,别轻易让人碰你的密码数据库,如果确实有人这样做了,让每个用户更改他们的密码。 #### 加密 Vs 哈希 技术上来来说,哈希过程并不是加密。哈希和加密是不同的,这有两个理由: 不像加密,哈希数据不能被解密。 是有可能(但非常罕见)两个不同的字符串会产生相同的哈希。并不能保证哈希是唯一的,因此别像数据库中的唯一键那样使用哈希。 ``` function hash_ish($string) { return md5($string); } ``` 上面的 md5() 函数基于 RSA 数据安全公司的消息摘要算法(即 MD5)返回一个由 32 个字符组成的十六进制串。然后你可以将那个 32 位字符串插入到数据库中和另一个 md5 字符串相比较,或者直接用这 32 个字符。 #### 破解脚本 几乎不可能解密 MD5 数据。或者说很难。但是,你仍然需要好的密码,因为用一整个字典生成哈希数据库仍然很简单。有一些在线 MD5 字典,当你输入 **06d80eb0c50b49a509b49f2424e8c805** 后会得到结果 “dog”。因此,尽管技术上 MD5 不能被解密,这里仍然有漏洞,如果某人获得了你的密码数据库,你可以肯定他们肯定会使用 MD5 字典破译。因此,当你创建基于密码的系统的时候尤其要注意密码长度(最小 6 个字符,8 个或许会更好)和包括字母和数字。并确保这个密码不在字典中。 ### 用 Mcrypt 加密数据 如果你不需要以可阅读形式查看密码,采用 MD5 就足够了。不幸的是,这里并不总是有可选项,如果你提供以加密形式存储某人的信用卡信息,你可能需要在后面的某个地方进行解密。 最早的一个解决方案是 Mcrypt 模块,这是一个用于允许 PHP 高速加密的插件。Mcrypt 库提供了超过 30 种用于加密的计算方法,并且提供口令确保只有你(或者你的用户)可以解密数据。 让我们来看看使用方法。下面的脚本包含了使用 Mcrypt 加密和解密数据的函数: ``` <?php $data = "Stuff you want encrypted"; $key = "Secret passphrase used to encrypt your data"; $cipher = "MCRYPT_SERPENT_256"; $mode = "MCRYPT_MODE_CBC"; function encrypt($data, $key, $cipher, $mode) { // Encrypt data return (string) base64_encode ( mcrypt_encrypt ( $cipher, substr(md5($key),0,mcrypt_get_key_size($cipher, $mode)), $data, $mode, substr(md5($key),0,mcrypt_get_block_size($cipher, $mode)) ) ); } function decrypt($data, $key, $cipher, $mode) { // Decrypt data return (string) mcrypt_decrypt ( $cipher, substr(md5($key),0,mcrypt_get_key_size($cipher, $mode)), base64_decode($data), $mode, substr(md5($key),0,mcrypt_get_block_size($cipher, $mode)) ); } ?> ``` **mcrypt()** 函数需要几个信息: * 需要加密的数据 * 用于加密和解锁数据的口令,也称为键。 * 用于加密数据的计算方法,也就是用于加密数据的算法。该脚本使用了 **MCRYPT\_SERPENT\_256**,但你可以从很多算法中选择,包括 **MCRYPT\_TWOFISH192**、**MCRYPT\_RC2**、**MCRYPT\_DES**、和 **MCRYPT\_LOKI97**。 * 加密数据的模式。这里有几个你可以使用的模式,包括电子密码本(Electronic Codebook) 和加密反馈(Cipher Feedback)。该脚本使用 **MCRYPT\_MODE\_CBC** 密码块链接。 * 一个 **初始化向量**-也称为 IV 或者种子,用于为加密算法设置种子的额外二进制位。也就是使算法更难于破解的额外信息。 * 键和 IV 字符串的长度,这可能随着加密和块而不同。使用 **mcrypt\_get\_key\_size()** 和 **mcrypt\_get\_block\_size()** 函数获取合适的长度;然后用 **substr()** 函数将键的值截取为合适的长度。(如果键的长度比要求的短,别担心,Mcrypt 会用 0 填充。) 如果有人窃取了你的数据和短语,他们只能一个个尝试加密算法直到找到正确的那一个。因此,在使用它之前我们通过对键使用 **md5()** 函数增加安全,就算他们获取了数据和短语,入侵者也不能获得想要的东西。 入侵者同时需要函数,数据和口令,如果真是如此,他们可能获得了对你服务器的完整访问,你只能大清洗了。 这里还有一个数据存储格式的小问题。Mcrypt 以难懂的二进制形式返回加密后的数据,这使得当你将其存储到 MySQL 字段的时候可能出现可怕错误。因此,我们使用 **base64encode()** 和 **base64decode()** 函数转换为和 SQL 兼容的字母格式和可检索行。 #### 破解脚本 除了实验多种加密方法,你还可以在脚本中添加一些便利。例如,不用每次都提供键和模式,而是在包含的文件中声明为全局常量。 ### 生成随机密码 随机(但难以猜测)字符串在用户安全中很重要。例如,如果某人丢失了密码并且你使用 MD5 哈希,你不可能,也不希望查找回来。而是应该生成一个安全的随机密码并发送给用户。为了访问你站点的服务,另外一个用于生成随机数字的应用程序会创建有效链接。下面是创建密码的一个函数: ``` <?php function make_password($num_chars) { if ((is_numeric($num_chars)) && ($num_chars > 0) && (! is_null($num_chars))) { $password = ''; $accepted_chars = 'abcdefghijklmnopqrstuvwxyz1234567890'; // Seed the generator if necessary. srand(((int)((double)microtime()*1000003)) ); for ($i=0; $i<=$num_chars; $i++) { $random_number = rand(0, (strlen($accepted_chars) -1)); $password .= $accepted_chars[$random_number] ; } return $password; } } ?> ``` #### 使用脚本 **make\_password()** 函数返回一个字符串,因此你需要做的就是提供字符串的长度作为参数: ``` <?php $fifteen_character_password = make_password(15); ?> ``` 函数按照下面步骤工作: * 函数确保 **$num\_chars** 是非零的正整数。 * 函数初始化 **$accepted\_chars** 变量为密码可能包含的字符列表。该脚本使用所有小写字母和数字 0 到 9,但你可以使用你喜欢的任何字符集合。(LCTT 译注:有时候为了便于肉眼识别,你可以将其中的 0 和 O,1 和 l 之类的都去掉。) * 随机数生成器需要一个种子,从而获得一系列类随机值(PHP 4.2 及之后版本中并不需要,会自动播种)。 * 函数循环 **$num\_chars** 次,每次迭代生成密码中的一个字符。 * 对于每个新字符,脚本查看 **$accepted\_chars** 的长度,选择 0 和长度之间的一个数字,然后添加 **$accepted\_chars** 中该数字为索引值的字符到 $password。 * 循环结束后,函数返回 **$password**。 ### 许可证 本篇文章,包括相关的源代码和文件,都是在 [The Code Project Open License (CPOL)](http://www.codeproject.com/info/cpol10.aspx) 协议下发布。 --- via: <http://www.codeproject.com/Articles/363897/PHP-Security> 作者:[SamarRizvi](http://www.codeproject.com/script/Membership/View.aspx?mid=7483622) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,874
RedHat 发布 RHEL 6.7
http://distrowatch.com/?newsid=09022
2015-07-23T14:09:00
[ "RHEL", "RedHat" ]
https://linux.cn/article-5874-1.html
![](/data/attachment/album/201407/09/100614ja4za9oppkot39vt.png) 虽然 Red Hat 已经发布了 RHEL 7.1,但是对 RHEL 6 系列的更新继续进行。最近,RedHat 发布了 RHEL 6 的最新更新版本 RHEL 6.7。 [发布公告](http://www.redhat.com/en/about/press-releases/red-hat-joins-platform-stability-and-open-innovation-latest-version-red-hat-enterprise-linux-6)列出了主要的改进: * clufter:一个分析和转换集群配置格式的工具,clufter 可以让系统管理员更新现有的 HA 配置来运行 RedHat 最新的HA 工具。 * LVM Cache 已经全部支持了,它允许用户在有限的成本下,最大化基于 SSD 的存储的性能。 [发行备注](https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/6.7_Release_Notes/index.html)中包括了更多细节和已知问题的列表。此外还提供一系列的更多细节的[技术备注](https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html-single/6.7_Technical_Notes/index.html),包括软件包的改变和安全建议。
302
Found
null
5,877
为 Kodi 自制遥控器
http://www.linuxvoice.com/xbmc-build-a-remote-control/
2015-07-24T09:11:00
[ "Kodi", "XBMC", "遥控器" ]
https://linux.cn/article-5877-1.html
**通过运行在 Android 手机上的自制遥控器来控制你的家庭媒体播放器。** **Kodi** 是一款很优秀的软件,能够将几乎所有电脑变身成媒体中心。它可以播放音乐和视频,显示图片,甚至还能显示天气预报。为了在配置成家庭影院后方便使用,你可以通过手机 app 访问运行在连接到 Wi-Fi 的 XBMC 机器上的服务来控制它。可以找到很多这种工具,几乎覆盖所有智能手机系统。 ![](/data/attachment/album/201507/24/091201qhyjxk777tqyxkuy.jpg) > > **XBMC** > > > Kodi 原名叫做 XBMC,在你阅读这篇文章的时候,**XBMC** 已经成为历史。因为法律原因(因为名字 **XBMC** 或 X**-Box Media Center** 里引用了不再支持的过时硬件)项目组决定使用新的名字 **Kodi**。不过,除了名字,其他的都会保持原样。或者说除开通常新版本中所期待的大量新改进。这一般不会影响到遥控软件,它应该能在已有的 **XBMC** 系统和新的 Kodi 系统上都能工作。 > > > 我们目前已经配置好了一个用于播放音乐的 **Kodi** 系统,不过我们找到的所有 Kodi 遥控没一个好用的,特别是和媒体中心连接的电视没打开的时候。它们都有点太复杂了,集成了太多功能在手机的小屏幕上。我们希望能有这样的系统,从最开始就是设计成只用于访问音乐库和电台插件,所以我们决定自己实现一个。它不需要用到 Kodi 的所有功能,因为除了音乐以外的任务,我们可以简单地切换使用通用的 Kodi 遥控。我们的测试系统是一个刷了 RaspBMC 发行版的树莓派,但是我们要做的工具并不受限于树莓派或Kodi那个发行版,它应该可以匹配任何安装了相关插件的基于 Linux 的 Kodi 系统。 首先,遥控程序需要一个用户界面。大多数 Kodi 遥控程序都是独立的 app。不过对于我们要做的这个音乐控制程序,我们希望用户可以不用安装任何东西就可以使用。显然我们需要使用网页界面。Kodi 本身自带网页服务器,但是为了获得更多权限,我们还是使用了独立的网页框架。在同一台电脑上跑两个以上网页服务器没有问题,只不过它们不能使用相同的端口。 有几个网页框架可以使用。而我们选用 Bottle 是因为它是一个简单高效的框架,而且我们也确实用不到任何高级功能。Bottle 是一个 Python 模块,所以这也将是我们编写服务器模块的语言。 你应该能在软件包管理器里找到 Bottle。在基于 Debian 的系统(包括 RaspBMC)里,你可以通过下面的命令安装: ``` sudo apt-get install python-bottle ``` 遥控程序实际上只是连接用户和系统的中间层。Bottle 提供了和用户交互的方式,而我们将通过 JSON API 来和 **Kodi** 交互。这样可以让我们通过发送 JSON 格式消息的方式去控制媒体播放器。 我们将用到一个叫做 xbmcjson 的简单 XBMC JASON API 封装。足够用来发送控制请求,而不需要关心实际的 JSON 格式以及和服务器通讯的无聊事。它没有包含在 PIP 包管理中,所以你得直接从 **GitHub** 安装: ``` git clone https://github.com/jcsaaddupuy/python-xbmc.git cd python-xbmc sudo python setup.py install ``` 万事俱备,只欠代码。 #### 先从 Bottle 开始 我们程序的基本结构: ``` from xbmcjson import XBMC from bottle import route, run, template, redirect, static_file, request import os xbmc = XBMC("http://192.168.0.5/jsonrpc", "xbmc", "xbmc") @route('/hello/<name>') def index(name): return template('<h1>Hello {{name}}!</h1>', name=name) run(host="0.0.0.0", port=8000) ``` 这样程序将连接到 **Kodi**(不过实际上用不到);然后 Bottle 会开始提供网站服务。在我们的代码里,它将监听主机 0.0.0.0(意味着允许所有主机连接)的端口 8000。它只设定了一个站点,就是 /hello/XXXX,这里的 XXXX 可以是任何内容。不管 XXXX 是什么都将作为参数名传递给 index()。然后再替换进去 HTML 网页模版。 你可以先试着把上面内容写到一个文件(我们取的名字是 remote.py),然后用下面的命令启动: ``` python remote.py ``` 然后你可以在浏览器里访问 localhost:8000/hello/world 看看模版生效的效果。 @route() 用来设定网页服务器的路径,而函数 index() 会返回该路径的数据。通常是返回由模版生成的 HTML 页面,但是并不是说只能这样(后面会看到)。 随后,我们将给应用添加更多页面入口,让它变成一个全功能的 Kodi 遥控,但仍将采用相同代码结构。 XBMC JSON API 接口可以从和 Kodi 机器同网段的任意电脑上访问。也就是说你可以在自己的笔记本上开发,然后再布置到媒体中心上,而不需要浪费时间上传每次改动。 模版 - 比如前面例子里的那个简单模版 - 是一种结合 Python 和 HTML 来控制输出的方式。理论上,这俩能做很多很多事,但是会非常混乱。我们将只是用它们来生成正确格式的数据。不过,在开始动手之前,我们先得准备点数据。 > > **Paste** > > > Bottle 自带网页服务器,我们用它来测试遥控程序。不过,我们发现它性能有时不够好。当我们的遥控程序正式上线时,我们希望页面能更快一点显示出来。Bottle 可以和很多不同的网页服务器配合工作,而我们发现 Paste 用起来非常不错。而要使用的话,只要简单地安装(Debian 系统里的 python-paste 包),然后修改一下代码里的 run 调用: > > > > ``` > run(host=hostname, port=hostport, server="paste") > > ``` > > 你可以在 <http://bottlepy.org/docs/dev/deployment.html> 找到如何使用其他服务器的相关细节。 > > > #### 从 Kodi 获取数据 XBMC JSON API 分成 14 个命名空间:JSONRPC, Player, Playlist, Files, AudioLibrary, VideoLibrary, Input, Application, System, Favourites, Profiles, Settings, Textures 和 XBMC。每个都可以通过 Python 的 XBMC 对象访问(Favourites 除外,明显是个疏忽)。每个命名空间都包含许多方法用于对程序的控制。例如,Playlist.GetItems() 可以用来获取某个特定播放列表的内容。服务器会返回给我们 JSON 格式的数据,但 xbmcjson 模块会为我们转化成 Python 词典。 我们需要用到 Kodi 里的两个组件来控制播放:播放器和播放列表。播放器处理播放列表并在每首歌结束时从列表里取下一首。为了查看当前正在播放的内容,我们需要获取正在工作的播放器的 ID,然后根据它找到当前播放列表的 ID。这个可以通过下面的代码来实现: ``` def get_playlistid(): player = xbmc.Player.GetActivePlayers() if len(player['result']) > 0: playlist_data = xbmc.Player.GetProperties({"playerid":0, "properties":["playlistid"]}) if len(playlist_data['result']) > 0 and "playlistid" in playlist_data['result'].keys(): return playlist_data['result']['playlistid'] return -1 ``` 如果当前没有播放器在工作(就是说,返回数据的结果部分的长度是 0),或者当前播放器没有处理播放列表,这样的话函数会返回 -1。其他时候,它会返回当前播放列表的数字 ID。 当我们拿到当前播放列表的 ID 后,就可以获取该列表的细节内容。按照我们的需求,有两个重要的地方:播放列表里包含的项,以及当前播放所处的位置(已经播放过的项并不会从播放列表移除,只是移动当前播放位置)。 ``` def get_playlist(): playlistid = get_playlistid() if playlistid >= 0: data = xbmc.Playlist.GetItems({"playlistid":playlistid, "properties": ["title", "album", "artist", "file"]}) position_data = xbmc.Player.GetProperties({"playerid":0, 'properties':["position"]}) position = int(position_data['result']['position']) return data['result']['items'][position:], position return [], -1 ``` 这样可以返回正在播放的项开始的列表(因为我们并不关心已经播放过的内容),而且也包含了用来从列表里移除项的位置信息。 ![Image](/data/attachment/album/201507/24/091205velijznihkq6ahhk.jpg) API 文档在这里:<http://wiki.xbmc.org/?title=JSON-RPC_API/v6>。它列出了所有支持的函数,但是关于具体如何使用的描述有点太简单了。 > > **JSON** > > > JSON 是 JavaScript Object Notation 的缩写,最初设计用于 JavaScript 对象的序列化。目前仍然起到这个作用,但是它也是用来编码任意数据的一种很好用的方式。 > > > JSON 对象都是这样的格式: > > > > ``` > {property1:value1, property2:value2, property3:value3} > > ``` > > 支持任意数目的属性/值配对。对 Python 程序员来说,看上去和字典数据结构很相似,不过这两个确实很像。 > > > 在字典数据结构里,值本身可以是另一个 JSON 对象,或者一个列表,所以下面的格式也是正确的: > > > > ``` > {"name":"Ben", "jobs":["cook", "bottle-washer"], "appearance": {"height":195, "skin":"fair"}} > > ``` > > JSON 通常在网络服务中用来发送和接收数据,并且大多数编程语言都能很好地支持,所以如果你熟悉 Python 的话,你应该可以使用你熟悉的编程语言调用相同的接口来轻松地控制 Kodi。 > > > #### 整合到一起 把之前的功能连接到 HTML 页面很简单: ``` @route('/juke') def index(): current_playlist, position = get_playlist() return template('list', playlist=current_playlist, offset = position) ``` 只需要抓取播放列表(调用我们之前定义的函数),然后将结果传递给负责显示的模版。 负责显示列表数据的模版的主要部分是: ``` <h2>Currently Playing:</h2> % if playlist is not None: % position = offset % for song in playlist: <strong> {{song['title']}} </strong> % if song['type'] == 'unknown': Radio % else: {{song['artist'][0]}} % end % if position != offset: <a href="/remove/{{position}}">remove</a> % else: <a href="/skip/{{position}}">skip</a> % end <br> % position += 1 % end ``` 可以看到,模版大部分是用 HTML 写的,只有一小部分用来控制输出的其他代码。用两个大括号括起来的变量是输出位置(像我们在第一个 'hello world' 例子里看到的)。你也可以嵌入以百分号开头的 Python 代码。因为没有缩进,你需要用一个 `% end` 来结束当前的代码块(就像循环或 if 语句)。 这个模版首先检查列表是否为空,然后遍历里面的每一项。每一项会用粗体显示歌曲名字,然后是艺术家名字,然后是一个是否跳过(如果是当前正在播的歌曲)或从列表移除的链接。所有歌曲的类型都是 'song',如果类型是 'unknown',那就不是歌曲而是网络电台。 /remove/ 和 /skip/ 路径只是简单地封装了 XBMC 控制功能,在改动生效后重新加载 /juke: ``` @route('/skip/<position>') def index(position): print xbmc.Player.GoTo({'playerid':0, 'to':'next'}) redirect("/juke") @route('/remove/<position>') def index(position): playlistid = get_playlistid() if playlistid >= 0: xbmc.Playlist.Remove({'playlistid':int(playlistid), 'position':int(position)}) redirect("/juke") ``` 当然,如果不能往列表里添加歌曲的话那这个列表管理功能也不行。 因为一旦播放列表结束,它就消失了,所以你需要重新创建一个,这会让事情复杂一些。而且有点让人迷惑的是,播放列表是通过调用 Playlist.Clear() 方法来创建的。这个方法也还用来删除包含网络电台(类型是 unknown)的播放列表。另一个麻烦的地方是列表里的网络电台开始播放后就不会停,所以如果当前在播网络电台,也会需要清除播放列表。 这些页面包含了指向 /play/<songid> 的链接来播放歌曲。通过下面的代码处理: ``` @route('/play/<id>') def index(id): playlistid = get_playlistid() playlist, not_needed= get_playlist() if playlistid < 0 or playlist[0]['type'] == 'unknown': xbmc.Playlist.Clear({"playlistid":0}) xbmc.Playlist.Add({"playlistid":0, "item":{"songid":int(id)}}) xbmc.Player.open({"item":{"playlistid":0}}) playlistid = 0 else: xbmc.Playlist.Add({"playlistid":playlistid, "item":{"songid":int(id)}}) remove_duplicates(playlistid) redirect("/juke") ``` 最后一件事情是实现 remove\_duplicates 调用。这并不是必须的 - 而且还有人并不喜欢这个 - 不过可以保证同一首歌不会多次出现在播放列表里。 我们也实现了一些页面用来列出收藏歌曲里所有艺术家,以及列出指定艺术家的歌曲和专辑。这些都非常简单,和 /juke 页面基本类似。 ![Image](/data/attachment/album/201507/24/091207fffjck6hj46w3iry.jpg) 还需要处理一下 UI,不过功能已经有了。 > > **日志** > > > 通常拿到 XBMC JSON API 并不清楚能用来做什么,而且它的文档也有点模糊。找出如何使用的一种方式是看别的遥控程序是怎么做的。如果打开日志功能,就可以在使用其他遥控程序的时候看到哪个 API 被调用了,然后就可以应用到在自己的代码里。 > > > 要打开日志功能,把 Kodi 媒体中心 接到显示器上,再依次进入设置 > 系统 > 调试,打开允许调试日志。在打开日志功能后,还需要登录到 Kodi 机器上(比如通过 SSH),然后就可以查看日志了。日志文件的位置应该显示在 Kodi 界面左上角。在 RaspBMC 系统里,文件位置是 /home/pi/.xbmc/temp/xbmc.log。你可以通过下面的命令实时监视哪个 API 接口被调用了: > > > > ``` > cd /home/pi/.xbmc/temp > tail -f xbmc.log | grep "JSON" > > ``` > > #### 增加功能 上面的代码都是用来播放 Kodi 媒体库里的歌曲的,但我们还希望能播放网络电台。每个插件都有自己的独立 URL 可以通过普通的 XBMC JSON 命令来获取信息。举个例子,要从电台插件里获取选中的电台,可以使用; ``` @route('/radio/') def index(): my_stations = xbmc.Files.GetDirectory({"directory":"plugin://plugin.audio.radio_de/stations/my/", "properties": ["title","thumbnail","playcount","artist","album","episode","season","showtitle"]}) if 'result' in my_stations.keys(): return template('radio', stations=my_stations['result']['files']) else: return template('error', error='radio') ``` 这样可以返回一个可以和歌曲一样能添加到播放列表的文件。不过,这些文件能一直播下去,所以(之前说过)在添加其他歌曲的时候需要重新创建列表。 #### 共享歌曲 除了伺服页面模版,Bottle 还支持静态文件,方便用于那些不会因为用户输入而改变的内容。可以是 CSS 文件,一张图片或是一首 MP3 歌曲。在我们的简单遥控程序里(目前)还没有任何用来美化的 CSS 或图片,不过我们增加了一个下载歌曲的途径。这个可以让媒体中心变成一个存放歌曲的 NAS 盒子。在需要传输大量数据的时候,最好还是用类似 Samba 的功能,但只是下几首歌到手机上的话使用静态文件也是很好的方式。 通过歌曲 ID 来下载的 Bottle 代码: ``` @route('/download/<id>') def index(id): data = xbmc.AudioLibrary.GetSongDetails({"songid":int(id), "properties":["file"]}) full_filename = data['result']['songdetails']['file'] path, filename = os.path.split(full_filename) return static_file(filename, root=path, download=True) ``` 应用的时候,只需要为 /songsby/ 页面里的相应 ID 加个链接。 我们已经把所有的代码过了一遍,不过还需要一点工作来把它们集合到一起。可以自己去 GitHub 页面 <https://github.com/ben-ev/xbmc-remote> 看下。 > **设置** > 我们的遥控程序已经开发完成,还需要保证让它在媒体中心每次开机的时候都能启动。有几种方式,最简单的是在 /etc/rc.local 里增加一行命令来启动。我们的文件位置在 /opt/xbmc-remote/remote.py,其他文件也和它一起。然后在 /etc/rc.local 最后的 exit 0 之前增加了下面一行。 > > > > ``` > cd /opt/xbmc-remote && python remote.py & > > ``` > > **GitHub** > 这个项目目前还只是个架子,但是 - 我们运营杂志就意味着没有太多自由时间来编程。不过,我们启动了一个 GitHub 项目,希望能持续完善, 而如果你觉得这个项目有用的话,欢迎做出贡献。 > > > 要查看最新的进展,请访问 <https://github.com/ben-ev/xbmc-remote> 看看所处的状态。你可以从页面里获取最新的代码,或者通过命令行复制。 > > > 如果你希望改善它,可以复制项目到你自己的分支开发,然后在功能完成后发起合并请求。关于如何使用 GitHub 的更多信息,请访问 <https://github.com/features>。 > > > --- via: <http://www.linuxvoice.com/xbmc-build-a-remote-control/> 作者:[Ben Everard](http://www.linuxvoice.com/author/ben_everard/) 译者:[zpl1025](https://github.com/zpl1025) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
500
Internal Server Error
null
5,879
Syncthing: 一个在计算机之间同步文件/文件夹的私密安全同步工具
http://www.unixmen.com/syncthing-private-secure-tool-sync-filesfolders-computers/
2015-07-24T10:20:00
[ "Syncthing", "同步", "私有云" ]
https://linux.cn/article-5879-1.html
### 简介 **Syncthing**是一个免费开源的工具,它能在你的各个网络计算机间同步文件/文件夹。它不像其它的同步工具,如**BitTorrent Sync**和**Dropbox**那样,它的同步数据是直接从一个系统中直接传输到另一个系统的,并且它是完全开源的,安全且私密的。你所有的珍贵数据都会被存储在你的系统中,这样你就能对你的文件和文件夹拥有全面的控制权,没有任何的文件或文件夹会被存储在第三方系统中。此外,你有权决定这些数据该存于何处,是否要分享到第三方,或这些数据在互联网上的传输方式。 所有的信息通讯都使用TLS进行加密,这样你的数据便能十分安全地逃离窥探。Syncthing有一个强大的响应式的网页管理界面(WebGUI,下同),它能够帮助用户简便地添加、删除和管理那些通过网络进行同步的文件夹。通过使用Syncthing,你可以在多个系统上一次同步多个文件夹。在安装和使用上,Syncthing是一个可移植的、简单而强大的工具。即然文件或文件夹是从一部计算机中直接传输到另一计算机中的,那么你就无需考虑向云服务供应商支付金钱来获取额外的云空间。你所需要的仅仅是非常稳定的LAN/WAN连接以及在你的系统中有足够的硬盘空间。它支持所有的现代操作系统,包括GNU/Linux, Windows, Mac OS X, 当然还有Android。 ![](/data/attachment/album/201507/24/101943ylllh8chmzg96blj.png) ### 安装 基于本文的目的,我们将使用两个系统,一个是Ubuntu 14.04 LTS, 一个是Ubuntu 14.10 server。为了简单辨别这两个系统,我们将分别称其为**系统1**和**系统2**。 ### 系统1细节: * **操作系统**: Ubuntu 14.04 LTS server; * **主机名**: **server1**.unixmen.local; * **IP地址**: 192.168.1.150. * **系统用户**: sk (你可以使用你自己的系统用户) * **同步文件夹**: /home/Sync/ (Syncthing会默认创建) ### 系统2细节: * **操作系统**: Ubuntu 14.10 server; * **主机名**: **server**.unixmen.local; * **IP地址**: 192.168.1.151. * **系统用户**: sk (你可以使用你自己的系统用户) * **同步文件夹**: /home/Sync/ (Syncthing会默认创建) ### 在系统1和系统2上为Syncthing创建用户 在两个系统上运行下面的命令来为Syncthing创建用户以及两系统间的同步文件夹。 ``` sudo useradd sk sudo passwd sk ``` ### 为系统1和系统2安装Syncthing 在系统1和系统2上遵循以下步骤进行操作。 从[官方下载页](https://github.com/syncthing/syncthing/releases/tag/v0.10.20)上下载最新版本。我使用的是64位版本,因此下载64位版的软件包。 ``` wget https://github.com/syncthing/syncthing/releases/download/v0.10.20/syncthing-linux-amd64-v0.10.20.tar.gz ``` 解压缩下载的文件: ``` tar xzvf syncthing-linux-amd64-v0.10.20.tar.gz ``` 切换到解压缩出来的文件夹: ``` cd syncthing-linux-amd64-v0.10.20/ ``` 复制可执行文件"syncthing"到**$PATH**: ``` sudo cp syncthing /usr/local/bin/ ``` 现在,执行下列命令来首次运行Syncthing: ``` syncthing ``` 当你执行上述命令后,syncthing会生成一个配置以及一些配置键值,并且在你的浏览器上打开一个管理界面。 输入示例: ``` [monitor] 15:40:27 INFO: Starting syncthing 15:40:27 INFO: Generating RSA key and certificate for syncthing... [BQXVO] 15:40:34 INFO: syncthing v0.10.20 (go1.4 linux-386 default) unknown-user@syncthing-builder 2015-01-13 16:27:47 UTC [BQXVO] 15:40:34 INFO: My ID: BQXVO3D-VEBIDRE-MVMMGJI-ECD2PC3-T5LT3JB-OK4Z45E-MPIDWHI-IRW3NAZ [BQXVO] 15:40:34 INFO: No config file; starting with empty defaults [BQXVO] 15:40:34 INFO: Edit /home/sk/.config/syncthing/config.xml to taste or use the GUI [BQXVO] 15:40:34 INFO: Starting web GUI on http://127.0.0.1:8080/ [BQXVO] 15:40:34 INFO: Loading HTTPS certificate: open /home/sk/.config/syncthing/https-cert.pem: no such file or directory [BQXVO] 15:40:34 INFO: Creating new HTTPS certificate [BQXVO] 15:40:34 INFO: Generating RSA key and certificate for server1... [BQXVO] 15:41:01 INFO: Starting UPnP discovery... [BQXVO] 15:41:07 INFO: Starting local discovery announcements [BQXVO] 15:41:07 INFO: Starting global discovery announcements [BQXVO] 15:41:07 OK: Ready to synchronize default (read-write) [BQXVO] 15:41:07 INFO: Device BQXVO3D-VEBIDRE-MVMMGJI-ECD2PC3-T5LT3JB-OK4Z45E-MPIDWHI-IRW3NAZ is "server1" at [dynamic] [BQXVO] 15:41:07 INFO: Completed initial scan (rw) of folder default ``` Syncthing已经被成功地初始化了,网页管理接口也可以通过浏览器访问URL: **http://localhost:8080**。如上面输入所看到的,Syncthing在你的**home**目录中的Sync目录**下自动为你创建了一个名为**default\*\*的文件夹。 默认情况下,Syncthing的网页管理界面只能在本地端口(localhost)中进行访问,要从远程进行访问,你需要在两个系统中进行以下操作: 首先,按下CTRL+C键来终止Syncthing初始化进程。现在你回到了终端界面。 编辑**config.xml**文件, ``` sudo nano ~/.config/syncthing/config.xml ``` 找到下面的指令: ``` [...] <gui enabled="true" tls="false"> <address>127.0.0.1:8080</address> <apikey>-Su9v0lW80JWybGjK9vNK00YDraxXHGP</apikey> </gui> [...] ``` 在区域中,把**127.0.0.1:8080**改为**0.0.0.0:8080**。结果,你的config.xml看起来会是这样的: ``` <gui enabled="true" tls="false"> <address>0.0.0.0:8080</address> <apikey>-Su9v0lW80JWybGjK9vNK00YDraxXHGP</apikey> </gui> ``` 保存并关闭文件。 在两个系统上再次执行下述命令: ``` syncthing ``` ### 访问网页管理界面 现在,在你的浏览器上打开**http://ip-address:8080/**。你会看到下面的界面: ![](/data/attachment/album/201507/24/102010y1svi2zipuenku3v.png) 网页管理界面分为两个窗格,在左窗格中,你应该可以看到同步的文件夹列表。如前所述,文件夹**default**在你初始化Syncthing时被自动创建。如果你想同步更多文件夹,点击**Add Folder**按钮。 在右窗格中,你可以看到已连接的设备数。现在这里只有一个,就是你现在正在操作的计算机。 ### 网页管理界面上设置Syncthing 为了提高安全性,让我们启用TLS,并且设置访问网页管理界面的管理员用户和密码。要做到这点,点击右上角的齿轮按钮,然后选择**Settings** ![](/data/attachment/album/201507/24/102011bd4sd8q5rdoqe4re.png) 输入管理员的帐户名/密码。我设置的是admin/Ubuntu。你应该使用一些更复杂的密码。 ![](/data/attachment/album/201507/24/102013zwzcioiboq4m4666.png) 点击Save按钮,现在,你会被要求重启Syncthing使更改生效。点击Restart。 ![](/data/attachment/album/201507/24/102013qnezvdgynifpoxze.png) 刷新你的网页浏览器。你可以看到一个像下面一样的SSL警告。点击显示**我了解风险(I understand the Risks)**的按钮。接着,点击“添加例外(Add Exception)“按钮把当前页面添加进浏览器的信任列表中。 ![](/data/attachment/album/201507/24/102014lraffmmj7hvqj6ib.png) 输入前面几步设置的管理员用户和密码。我设置的是**admin/ubuntu**。 ![](/data/attachment/album/201507/24/102015ufeqeovhbbj23o9e.png) 现在,我们提高了网页管理界面的安全性。别忘了两个系统都要执行上面同样的步骤。 ### 连接到其它服务器 要在各个系统之间同步文件,你必须各自告诉它们其它服务器的信息。这是通过交换设备IDs(device IDs)来实现的。你可以通过选择“齿轮菜单(gear menu)”(在右上角)中的”Show ID(显示ID)“来找到它。 例如,下面是我系统1的ID. ![](/data/attachment/album/201507/24/102017hbtbzx3wu83zbux6.png) 复制这个ID,然后到另外一个系统(系统2)的网页管理界面,在右边窗格点击Add Device按钮。 ![](/data/attachment/album/201507/24/102019ot3luaxkkl3jllj3.png) 接着会出现下面的界面。在Device区域粘贴**系统1 ID \*\*。输入设备名称(可选)。在地址区域,你可以输入其它系统( LCTT 译注:即粘贴的ID所属的系统,此应为系统1)的IP地址,或者使用默认值。默认值为**dynamic**。最后,选择要同步的文件夹。在我们的例子中,同步文件夹为**default\*\*。 ![](/data/attachment/album/201507/24/102021kvsdc0fncyi0hnss.png) 一旦完成了,点击save按钮。你会被要求重启Syncthing。点击Restart按钮重启使更改生效。 现在,我们到**系统1**的网页管理界面,你会看到来自系统2的连接和同步请求。点击**Add**按钮。现在,系统2会要求系统1分享和同步名为default的文件夹。 ![](/data/attachment/album/201507/24/102021qbnyj8utnn4ejxtj.png) 接着重启系统1的Syncthing服务使更改生效。 ![](/data/attachment/album/201507/24/102021rq00inf16rv1vi10.png) 等待大概60秒,接着你会看到两个系统之间已成功连接并同步。 你可以在网页管理界面中的Add Device区域核实该情况。 添加系统2后,系统1网页管理界面中的控制窗口如下: ![](/data/attachment/album/201507/24/102022w3ni1vwwvdd1ln6n.png) 添加系统1后,系统2网页管理界面中的控制窗口如下: ![](/data/attachment/album/201507/24/102023e2ntn0ggsin7vsg7.png) ![](/data/attachment/album/201507/24/102023e2ntn0ggsin7vsg7.png) 现在,在任一个系统中的“**default**”文件夹中放进任意文件或文件夹。你应该可以看到这些文件/文件夹被自动同步到其它系统。 本文完!祝同步愉快! 噢耶!!! * [Syncthing网站](http://syncthing.net/) --- via: <http://www.unixmen.com/syncthing-private-secure-tool-sync-filesfolders-computers/> 作者:[SK](http://www.unixmen.com/author/sk/) 译者:[XLCYun](https://github.com/XLCYun) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,880
如何管理 Vim 插件
http://xmodulo.com/manage-vim-plugins.html
2015-07-24T13:10:47
[ "vim", "Vundle", "插件" ]
https://linux.cn/article-5880-1.html
Vim是Linux上一个轻量级的通用文本编辑器。虽然它开始时的学习曲线对于一般的Linux用户来说可能很困难,但比起它的好处,这些付出完全是值得的。vim 可以通过完全可定制的插件来增加越来越多的功能。但是,由于它的功能配置比较难,你需要花一些时间去了解它的插件系统,然后才能够有效地去个性化定置Vim。幸运的是,我们已经有一些工具能够使我们在使用Vim插件时更加轻松。而我日常所使用的就是Vundle。 ![](/data/attachment/album/201507/24/131025m82mmdc5253pcpyr.png) ### 什么是Vundle [Vundle](https://github.com/VundleVim/Vundle.vim)意即Vim Bundle,是一个vim插件管理器。Vundle能让你很简单地实现插件的安装、升级、搜索或者清除。它还能管理你的运行环境并且在标签方面提供帮助。在本教程中我们将展示如何安装和使用Vundle。 ### 安装Vundle 首先,如果你的Linux系统上没有Git的话,先[安装Git](http://ask.xmodulo.com/install-git-linux.html)。 接着,创建一个目录,Vim的插件将会被下载并且安装在这个目录上。默认情况下,这个目录为~/.vim/bundle。 ``` $ mkdir -p ~/.vim/bundle ``` 现在,使用如下指令安装Vundle。注意Vundle本身也是一个vim插件。因此我们同样把vundle安装到之前创建的目录~/.vim/bundle下。 ``` $ git clone https://github.com/gmarik/Vundle.vim.git ~/.vim/bundle/Vundle.vim ``` ### 配置Vundle 现在配置你的.vimrc文件如下: ``` set nocompatible " 必需。 filetype off " 必须。 " 在这里设置你的运行时环境的路径。 set rtp+=~/.vim/bundle/Vundle.vim " 初始化vundle call vundle#begin() " 这一行应该永远放在开头。 Plugin 'gmarik/Vundle.vim' " 这个示范来自https://github.com/gmarik/Vundle.vim README Plugin 'tpope/vim-fugitive' " 取自http://vim-scripts.org/vim/scripts.html的插件 Plugin 'L9' " 该Git插件没有放在GitHub上。 Plugin 'git://git.wincent.com/command-t.git' "本地计算机上的Git仓库路径 (例如,当你在开发你自己的插件时) Plugin 'file:///home/gmarik/path/to/plugin' " vim脚本sparkup存放在这个名叫vim的仓库下的一个子目录中。 " 将这个路径正确地设置为runtimepath。 Plugin 'rstacruz/sparkup', {'rtp': 'vim/'} " 避免与L9发生名字上的冲突 Plugin 'user/L9', {'name': 'newL9'} "所有的插件都应该在这一行之前。 call vundle#end() " 必需。 ``` 容我简单解释一下上面的设置:默认情况下,Vundle将从github.com或者vim-scripts.org下载和安装vim插件。你也可以改变这个默认行为。 要从github安装插件: ``` Plugin 'user/plugin' ``` 要从 <http://vim-scripts.org/vim/scripts.html> 处安装: ``` Plugin 'plugin_name' ``` 要从另外一个git仓库中安装: ``` Plugin 'git://git.another_repo.com/plugin' ``` 从本地文件中安装: ``` Plugin 'file:///home/user/path/to/plugin' ``` 你同样可以定制其它东西,例如你的插件的运行时路径,当你自己在编写一个插件时,或者你只是想从其它目录——而不是~/.vim——中加载插件时,这样做就非常有用。 ``` Plugin 'rstacruz/sparkup', {'rtp': 'another_vim_path/'} ``` 如果你有同名的插件,你可以重命名你的插件,这样它们就不会发生冲突了。 ``` Plugin 'user/plugin', {'name': 'newPlugin'} ``` ### 使用Vum命令 一旦你用vundle设置好你的插件,你就可以通过几个vundle命令来安装、升级、搜索插件,或者清除没有用的插件。 #### 安装一个新的插件 `PluginInstall`命令将会安装所有列在你的.vimrc文件中的插件。你也可以通过传递一个插件名给它,来安装某个的特定插件。 ``` :PluginInstall :PluginInstall <插件名> ``` ![](/data/attachment/album/201507/24/131050hnvvu5d5wdvin6v1.jpg) #### 清除没有用的插件 如果你有任何没有用到的插件,你可以通过`PluginClean`命令来删除它。 ``` :PluginClean ``` ![](/data/attachment/album/201507/24/131052skpzbjjjyznjnohk.jpg) #### 查找一个插件 如果你想从提供的插件清单中安装一个插件,搜索功能会很有用。 ``` :PluginSearch <文本> ``` ![](/data/attachment/album/201507/24/131053u5ddx19m2eaqq2x6.jpg) 在搜索的时候,你可以在交互式分割窗口中安装、清除、重新搜索或者重新加载插件清单。安装后的插件不会自动加载生效,要使其加载生效,可以将它们添加进你的.vimrc文件中。 ### 总结 Vim是一个妙不可言的工具。它不单单是一个能够使你的工作更加顺畅高效的默认文本编辑器,同时它还能够摇身一变,成为现存的几乎任何一门编程语言的IDE。 注意,有一些网站能帮你找到适合的vim插件。猛击 [http://www.vim-scripts.org](http://www.vim-scripts.org/), Github或者 [http://www.vimawesome.com](http://www.vimawesome.com/) 获取新的脚本或插件。同时记得使用为你的插件提供的帮助。 和你最爱的编辑器一起嗨起来吧! --- via: <http://xmodulo.com/manage-vim-plugins.html> 作者:[Christopher Valerio](http://xmodulo.com/author/valerio) 译者:[XLCYun(袖里藏云)](https://github.com/XLCYun) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,883
Arch Linux 下的 QQ 解决方案
http://locez.com/Linux/Install-QQ-on-Linux/
2015-07-27T08:43:00
[ "QQ", "Wine", "winetricks" ]
https://linux.cn/article-5883-1.html
**UPDATE: 2015-08-31** **QQ 6.3 由于版本低,已不能登录,以下教程已不适用,有想要折腾 wine QQ 的仅供参考。** Linux 上面玩 QQ 一直都是一个问题。Wine 算是一个解决方案,但是也有不少人失败了。由于 QQ 的特殊性,采取了一系列的保护措施,导致 QQ 这个 Windows 程序非常复杂,因此 Wine 在运行 QQ 时表现差强人意。本文将要安装的是 QQ6.3 ,更高的版本除非对 QQ 做出修改,否则很难安装成功,即使成功了,问题也挺多的(笔者已试验过 QQ7.4 安装)。写这个的目的主要是方便有人遇到问题截图提问,毕竟 Linux 的普及工作还得靠大家,对于日常聊天还是建议使用手机QQ 。 ### 本文环境 * Arch Linux (其他发行版仅供参考) * KDE4 & LXDE & GNOME (其它请自测) ### 准备工具 * Wine * winetricks ### 简介 * `Wine` 是一个在类 Unix 系统中运行 Microsoft Windows 程序的软件, `Wine` 的全称是 `Wine Is Not Emulator` 意为 `Wine` 不是一个模拟器,它通过 API 转换技术做出 Linux 上对应于 Windows 的函数,从而调用 DLL 运行 Windows 程序。 * `winetricks` 是一个 `script` ,可以用来下载和安装各种在 Wine 运行时需要的部分 DLL 和框架。如 `.NET` , `Visual C++ runtime library` 或微软和其他公司的闭源程序,使用 `winetricks` 你可以快速安装某些常用的Windows程序。 ![](/data/attachment/album/201507/25/215658qp61r2p5058kgrzp.png) ### 步骤 1.安装 `Wine` ``` $ sudo pacman -S wine ``` **注意**:64 位需启用 `multilib` 仓库才可安装 `Wine` ,去掉 `[multilib]` 及其 `Include的` “#”即可 ``` $ sudo nano /etc/pacman.conf ``` 2.安装 `winetricks` ``` $ sudo pacman -S winetricks ``` 3.获取 `winetricks-zh` 的 `verb` 文件,更多详情请到: [winetricks-zh](https://github.com/hillwoodroc/winetricks-zh) ``` $ mkdir workforwine $ cd workforwine $ wget https://github.com/hillwoodroc/winetricks-zh/raw/master/verb/qq.verb ``` 4.安装 QQ ``` $ WINEARCH=win32 winetricks qq ``` 接下来是漫长的安装过程,会下载一系列需要的组件,将缓存在 `~/.cache/winetricks` ,请耐心等待。或许你还可以试试 `winetricks-zh` , `winetricks-zh` 是 `winetricks` 的本地化版本,添加了更多国人可能用到的软件。 ``` $ wget https://github.com/hillwoodroc/winetricks-zh/raw/master/winetricks-zh $ chmod +x winetricks-zh $ ./winetricks-zh ``` **注意**:若你觉得 `安装QQ` 这一步安装 `mono` 、`gecko` 太慢,如下图: ![installmono](/data/attachment/album/201507/25/215713zwz52gt5tzv1td5j.png) ![installingmono](/data/attachment/album/201507/25/215713jdfvhd5iqzdchyva.png) ![installgecko](/data/attachment/album/201507/25/215713ze7e0xdikfddyd2x.png) 根据配图我们可以知道 `mono` 是 `.NET` 需要的包,而 `gecko` 则是 `HTML` 需要的包,并且 wine 也更建议我们使用我们发行版中的 `mono`, `gecko` 包,这有两个好处,一是更加符合自己的发行版,二是不用为每个 `PREFIEX` 单独安装,因此可以尝试以下操作,其他发行版仅供参考: ``` $ rm -rf ~/.wine $ sudo pacman -S wine-mono $ sudo pacman -S wine_gecko $ WINEARCH=win32 winetricks qq ``` ### 需要注意的几点 * 请确保你安装有文泉驿字体 `sudo pacman -S wqy-microhei` 。 * 用 `winetricks` 和 `winetricks-zh` 安装的区别仅在于安装目录不同, `winetricks` 未指定位置时默认 `~/.wine` ,而`winetricks-zh` 则安装QQ至 `~/.local/share/wineprefixes/qq` 。 * 有任何问题都可以直接删除上面提到的两个文件夹重来。 * `wine` 的不稳定性,导致用 `winetricks` 安装字体有时可以解决,有时不可以,笔者试验了很多次以失败告终,希望有谁解决了可以告诉笔者。 ### 其他解决方案 * 虚拟机装个Windows * [crossover](https://www.codeweavers.com/products/) ### 参考资料 * [Wine-wiki](http://wiki.winehq.org/FrontPage) * [Wine-Wikipedia](https://zh.wikipedia.org/wiki/Wine) * [winetricks-wiki](http://wiki.winehq.org/winetricks_cn) * [winetricks-zh](https://github.com/hillwoodroc/winetricks-zh) * [Wine-ArchWiki](https://wiki.archlinux.org/index.php/Wine_%28%E7%AE%80%E4%BD%93%E4%B8%AD%E6%96%87%29)
301
Moved Permanently
null
5,885
秒杀SSD,ubuntu极速开发环境搭建
http://www.philo.top/2015/07/21/UbuntuDevEnv/
2015-07-27T13:39:00
[ "容器", "开发环境" ]
https://linux.cn/article-5885-1.html
### ubuntu打开的正确方式(笑) 在这个快节奏的时代。能够使用最快速度最低代价完成任务具有非常重要的意义,对于现代开发者来说,Linux是生活中必不可少且不可替代的**工具**,如果我们在开发少或学习中少一些遇到环境的坑,会节省很多时间,潜伏在各种Linux群中数年,发现大家都有**手贱**(操作失误,笑),因此在本文中给出终极解决方案: **直接使用Ubuntu Live CD 来完成系统的启动。** 那么最快的Linux安装办法又是什么呢?其实经过严谨的思考之后我个人觉得是**不安装**。我们可以准备从grub启动ubuntu操作系统把系统放到内存中,再预制出各种情况的环境包,也就是环境模块化,因为系统是在整个内存中所以速度非常非常快,需要模块化的内容并不多,比如说ssh vim tmux 为一组工具,开机后一个命令就可以激活工具包,不到几秒钟的时间即可完成,其他的如Chrome浏览器一类的都可以快速完成在内存上的安装。通过这种方式让环境更加灵活更加快速准备好开发环境。 这是一个思路上的变化,从我需要什么就安装什么一起都准备好给你用`->`变成了只启动基础的系统然后我需要什么我就后加载什么。 最后的准备在于容器,Docker 以及RKT与RunC的准备,在团队内可以秒级推送运行的环境。 ![](/data/attachment/album/201507/25/225647vww3jwwrq6l32f63.jpg) 本文依然有它的缺点: 主要体现在两个方面 1. 如果默认驱动不好使会造成很多麻烦。 2. 对于内存小的开发机器还是做快照比较好。最少4G内存,我们推荐内存在8G以上最好是16G或者32G内存的机器上采用此方案。 因为本方案整个操作系统都是加载到内存中的,硬盘速度即为内存的速度,我这里实测可以达到4.5Gb/s,所以你准备好屌丝逆袭(买不起SSD)秒杀高富帅了吗? ### ubuntu 对于它的简单介绍可以参考[这里](http://baike.baidu.com/view/4236.htm)。当然对于我本人而言选择Ubuntu主要原因仅仅是对他比较熟悉。并不限制使用什么发行版本。如果您要是选本方案搭建环境,并且选择其他发行版本请选择LiveCD尽量小一点的,如果能自己裁剪LiveCD就更好了,另外尽量选择64位架构。当然自己越熟悉越好。 虽然Ubuntu有一点不自由,但是我个人觉得包的质量管理还是非常好的,的确适合开发者使用。 ### Docker 官方:<https://www.docker.com/> 它对于我来说,几乎就像是水,如果没有他就没有今天的丰富多彩的运行方式,它可以让程序连同环境一起打包运行,使得部署备份等等非常方便,对于本次环境构建而言我们可以在个人的registry上备份自己的环境,只需要一小段时间就可以克隆回来。再加上现在各种永久免费的国内加速服务这种环境部署就是程序员天堂。更多细节请关注[这里](http://help.daocloud.io/tutorials/index.html)。 在本文中我们使用单文件版本的Docker文件,方便可控。无任何累赘。本人不喜脚本安装。 ### RunC && RKT 这两种产品是libcontainer的代表。相对于Docker来说,它是一个容器只需要一个进程,对于Docker来说,他需要一个守护进程。在本文中(本博主)不评价任何产品的好坏,只说什么时候适合用什么。当然在我们这里利用了它启动方便,挂载方便的特性让我们的工作更方便更方便更方便! 由于现在RunC还没有发布1.0版本文档几乎没有,因此我这里会给出我的详细研究结果。至于RKT还是大家自己摸索,文档已经很全了。 ### CoreOS 作为专门运行容器的操作系统,稳定性可不属性都是前所未有,当然我们的容器可以跑在这个上面本文中会提及两个系统的兼容性方案。 1. Ubuntu适合程序开发的情况。启动速度可能在1分钟左右(有点慢)。但是有图形界面,**有定制基础环境的方案。** 2. CoreOS适合跑程序,启动速度在10秒以下适合释放更多内存来跑临时业务,做测试的时候实用此方案。 ### 从Grub开始 #### 什么是Grub 它可以装在硬盘上帮助你启动操作系统,几乎所有操作系统都可以,当然也包含本次的方案内容。安装方式有很多种。而且必须得根据自己的情况来安装。因为每个人电脑上的操作系统情况都不一样,有的已经有系统了。有的不想给自己装引导。可能先放到u盘上引导都有可能。因此这里不做安装方法上的更多描述可以自己根据情况到搜索引擎上搜索。 #### Grub 的安装 我之前是安装了windows,所以我直接安装了EasyBCD然后安装NeoGRUB来实现的。具体操作步骤如下: 1. 下载安装EasyBCD 2. 如图所示![](/data/attachment/album/201507/25/225648zh0hcp7tdtyasf7a.png) 3. 安装重启电脑之后选择Grub启动项可以进入一个类似输入命令的界面即可确定完成安装。 ### Ubuntu 启动配置 #### 启动准备 如果想要准备启动Ubuntu那么有三个关键要素, 1. [ubuntu-14.04.2-desktop-amd64.iso](http://mirrors.aliyun.com/ubuntu-releases/14.04.2/ubuntu-14.04.2-desktop-amd64.iso) 2. image中casper/vmlinuz.efi 3. image中casper/initrd.lz 这三个文件作为启动的必要文件请放到分区中容易找到的地方。**推荐做法:**给自己的硬盘上开个**EXT4** 分区,然后把三个文件丢到里面去。 #### 启动参数调试 工作中我们讲求流程,当然我们也需要一定的路程,我们不可能一次调整就成功把ISO启动起来。因此我们先加一个调试流程。 ``` root (hd0,1) kernel (hd0,1)/casper/vmlinuz.efi boot=casper iso-scan/filename=/ubuntu-14.04.2-desktop-amd64.iso ro quiet splash locate=en_US.UTF-8 initrd (hd0,1)/casper/initrd.lz ``` 1. 你需要看清楚把文件放到了第几块硬盘上,第几块分区上。组成参数为`(hd0,1)`(我的是0号硬盘第二个分区)。如果你实在分不清可以参考[这里](http://blog.csdn.net/evergreen79/article/details/8580503)。 2. `root (hd0,1)` 设置GRUB的root设备 3. kernel 命令套格式,变化参数 vmlinuz.efi 和 ubuntu-14.04.2-desktop-amd64.iso 要与你放到硬盘上的位置对应,可以**使用Tab自动补全**非常实用。 4. initrd 依然是套格式找到对应硬盘傻姑娘的initrd.lz的位置。 5. 如果出现错误了按`↑`会出现刚才的命令,多加修改直到成功启动。 #### 启动参数放到硬盘中 如果是NeoGrub配置文件路径`C:\NST\menu.lst`,其他的请参考说明文档,一般都会有的。 配置文件写法: ``` timeout 3 default 0 title Ubuntu root (hd0,1) kernel (hd0,1)/casper/vmlinuz.efi boot=casper iso-scan/filename=/ubuntu-14.04.2-desktop-amd64.iso ro quiet splash locate=en_US.UTF-8 initrd (hd0,1)/casper/initrd.lz ``` 3秒等待自动选择第一项,名称ubuntu 别的剩下的就是刚才调试内容的命令了。 ### 完成刚需配置 刚醒需求配置是指在容器之外的刚醒需求配置,比如说编辑器,SSH等等工具箱。配置方法: `APT`。 1. 修改安装源:`sed -i 's/archive.ubuntu.com/mirrors.aliyun.com/g' /etc/apt/sources.list && apt-get update` 2. 安装你需要的软件包:`apt-get install -y vim screen tmux ssh-server`等等 3. 调试你的环境看看是否好使,然后复制文件夹`/var/cache/apt/archives`中所有deb文件即为您刚才所有的安装包。复制到一个可以持久化的文件夹中等待使用。 4. 回调环境: 每当您重新启动之后这些安装包即消失,想恢复,进入到上一步中复制到的文件夹中执行如下命令`dpkg -i *`即可安装预先准备好的软件 5. `灵活使用`,此步骤为发挥组合拳威力的一步。当您反复定制凝练您的安装包之后,会根据个人情况选择不同的目录来初始化您的环境,其结果是,又小又轻,非常可靠。再也不怕手贱导致环境崩坏,再加上外部的git服务保证工作内容的安全性基本上可以肯定的说:`我们的环境与硬件与工作耦合度降低不少`. 6. 对于APT无法安装的内容,比如说JDK 与定制版本的Eclipse您可以通过下载完之后持久化保存到硬盘中,写一个脚本解压后放到硬盘中至于环境直接写入到profile中即可。 7. 使用此方法之后假如您使用IDE真的会有一个非常非常大的速度提升,我打开Eclipse C/C++ `5秒钟`即可。 ### 容器安装配置 一般情况下我们安装Docker都是通过网上下载脚本安装,但是这种情况下我们推荐使用直接下载单文件版本的来完成安装安装脚本如下: ``` curl -sSL -O https://get.daocloud.io/docker/builds/Linux/x86_64/docker-latest chmod +x docker-latest mv docker-latest /usr/bin/docker docker -d & ``` 在第三行中复制docker程序到任何Path下的文件夹内备用。在配置上,还是要吧`/var/lib/docker`放到可持久化的软连接下面。比如说按照下面的操作: ``` rm -rf /var/lib/docker ln -s /isodevice/docker /var/lib/docekr ``` 按照这种方法操作可以让docker image 持久化保存在硬盘中。重启也能找回来。这里注意,如果您之前就实践了CoreOS 171.3 版本上的Docker它使用的是1.6版本他的**存储文件格式**与1.7的不同因此不通用。我就踩到这个坑了。接下来的操作就与Docker一样了。 **注意:**这个安装包: `cgroup-lite_1.9_all.deb` 一定要装,默认的光盘中就差这一个依赖,在下面的安装包中有要不就apt安装保存下来都可以。 ### 材料准备 [我在百度云盘](http://pan.baidu.com/s/1hqKqJL6)中准备了三个文件,第一个是docker 1.7.1 第二个准别了vim screen ssh-server tmux CGroup的安装包。最后一个把我常用的Docker images 打包放出来了。其实在准备这个方案花最多时间就是在于精简依赖,最后发现只需要一个CGroup安装包。 ### 总结 在本段文档中,我们给出了一个全新的使用Linux操作系统的思路**不安装**。并且做了一定的前期准备工作。启动了Linux操作系统做到本步骤如果您是新手就可以开始Linux的学习旅程了,如果您是需要此方案工作已经可以展开一般性质的工作了。 最后我真的拆掉我的三爽垃圾ssd(越用越慢)直接上内存。 方案合理要素: 1. root权限过大。有时导致无法挽回的误操作。 2. 现在的电脑内存不是很贵。大部分Linux电脑内存都在闲置。 3. Linux操作系统如果每次执行的任务如果比较单一(一台物理机只给一个人用)真的不会很大。 4. 给重新启动计算机赋予了新的意义。 5. 真正超过SSD的速度,成本更低。(实测启动Eclipse C/C++ 仅需要5s)
301
Moved Permanently
null
5,887
使用这些去重加密工具来备份你的数据
http://www.linuxlinks.com/article/20150628060000607/BackupTools.html
2015-07-26T10:53:00
[ "备份", "去重" ]
https://linux.cn/article-5887-1.html
无论是体积还是价值,数据都在不断增长。快速而可靠地备份和恢复数据正变得越来越重要。社会已经适应了技术的广泛使用,并懂得了如何依靠电脑和移动设备,但很少有人能够面对丢失重要数据的现实。在遭受数据损失的公司中,30% 的公司将在一年内损失一半市值,70% 的公司将在五年内停止交易。这更加凸显了数据的价值。 随着数据在体积上的增长,提高存储利用率尤为重要。从计算机的角度说,数据去重是一种特别的数据压缩技术,因为它可以消除重复数据的拷贝,所以这个技术可以提高存储利用率。 数据并不仅仅只有其创造者感兴趣。政府、竞争者、犯罪分子、偷窥者可能都热衷于获取你的数据。他们或许想偷取你的数据,从你那里进行敲诈,或看你正在做什么。因此,对于保护你的数据,加密是非常必要的。 所以,解决方法是我们需要一个可以去重的加密备份软件。 对于所有的用户而言,做文件备份是一件非常必要的事,至今为止许多用户还没有采取足够的措施来保护他们的数据。一台电脑不论是工作在一个合作的环境中,还是供私人使用,机器的硬盘可能在没有任何警告的情况下挂掉。另外,有些数据丢失可能是人为的错误所引发的。如果没有做经常性的备份,数据也可能不可避免地丢失,即使请了专业的数据恢复公司来帮忙。 ![](/data/attachment/album/201507/25/235657cd0ql190p74l6m7c.jpg) 这篇文章将对 6 个去重加密备份工具进行简要的介绍。 ### Attic Attic 是一个可用于去重、加密,验证完整性的压缩备份程序,它是用 Python 写的。Attic 的主要目标是提供一个高效且安全的方式来备份数据。Attic 使用的数据去重技术使得它适用于每日备份,因为只需存储改变的数据。 其特点有: * 易用 * 可高效利用存储空间,通过检查冗余的数据,对可变块大小的去重可以减少存储所用的空间 * 可选的数据加密,使用 256 位的 AES 加密算法。数据的完整性和可靠性使用 HMAC-SHA256 来校验 * 使用 SDSH 来进行离线备份 * 备份可作为文件系统来挂载 网站: [attic-backup.org](https://attic-backup.org/) ### Borg Borg 是 Attic 的一个分支。它是一个安全的开源备份程序,被设计用来高效地存储那些新的或修改过的数据。 Borg 的主要目标是提供一个高效、安全的方式来存储数据。Borg 使用的数据去重技术使得它适用于每日备份,因为只需存储改变的数据。认证加密使得它适用于存储在不完全可信的位置。 Borg 由 Python 写成。Borg 于 2015 年 5 月被创造出来,是为了解决让新的代码或重大的改变带入 Attic 的困难。 其特点包括: * 易用 * 可高效利用存储空间,通过检查冗余的数据,对可变块大小的去重被用来减少存储所用的空间 * 可选的数据加密,使用 256 位的 AES 加密算法。数据的完整性和可靠性使用 HMAC-SHA256 来校验 * 使用 SDSH 来进行离线备份 * 备份可作为文件系统来挂载 Borg 与 Attic 不兼容。 网站: [borgbackup.github.io/borgbackup](https://borgbackup.github.io/borgbackup/) ### Obnam Obnam (OBligatory NAMe) 是一个易用、安全的基于 Python 的备份程序。备份可被存储在本地硬盘或通过 SSH SFTP 协议存储到网上。若使用了备份服务器,它并不需要任何特殊的软件,只需要使用 SSH 即可。 Obnam 通过将数据分成数据块,并单独存储它们来达到去重的目的,每次通过增量备份来生成备份,每次备份的生成就像是一次新的快照,但事实上是真正的增量备份。Obnam 由 Lars Wirzenius 开发。 其特点有: * 易用 * 快照备份 * 数据去重,跨文件,然后生成备份 * 可使用 GnuPG 来加密备份 * 向一个单独的仓库中备份多个客户端的数据 * 备份检查点 (创建一个保存点,以每 100MB 或其他容量) * 包含多个选项来调整性能,包括调整 lru-size 或 upload-queue-size * 支持 MD5 校验算法来识别重复的数据块 * 通过 SFTP 将备份存储到一个服务器上 * 同时支持 push(即在客户端上运行) 和 pull(即在服务器上运行) 网站: [obnam.org](http://obnam.org/) ### Duplicity Duplicity 以 tar 文件格式增量备份文件和目录,并使用 GnuPG 来进行加密,同时将它们上传到远程(或本地)的文件服务器上。它可以使用 ssh/scp、本地文件获取、rsync、 ftp 和 Amazon S3 等来传递数据。 因为 duplicity 使用了 librsync, 增量存档可以高效地利用存储空间,且只记录自从上次备份依赖改变的那部分文件。由于该软件使用 GnuPG 来加密或对这些归档文件进行进行签名,这使得它们免于服务器的监视或修改。 当前 duplicity 支持备份删除的文件,全部的 unix 权限,目录,符号链接, fifo 等。 duplicity 软件包还包含有 rdiffdir 工具。 Rdiffdir 是 librsync 的 rdiff 针对目录的扩展。它可以用来生成对目录的签名和差异,对普通文件也有效。 其特点有: * 使用简单 * 对归档进行加密和签名(使用 GnuPG) * 高效使用带宽和存储空间,使用 rsync 的算法 * 标准的文件格式 * 可选择多种远程协议 + 本地存储 + scp/ssh + ftp + rsync + HSI + WebDAV + Amazon S3 网站: [duplicity.nongnu.org](http://duplicity.nongnu.org/) ### ZBackup ZBackup 是一个通用的全局去重备份工具。 其特点包括: * 对存储数据并行进行 LZMA 或 LZO 压缩,在一个仓库中,你还可以混合使用 LZMA 和 LZO * 内置对存储数据的 AES 加密 * 能够删除旧的备份数据 * 可以使用 64 位的滚动哈希算法,使得文件冲突的数量几乎为零 * 仓库中存储的文件是不可修改的,已备份的文件不会被修改。 * 用 C++ 写成,只需少量的库文件依赖 * 在生成环境中可以安全使用 * 可以在不同仓库中进行数据交换而不必再进行压缩 * 使用 64 位改进型 Rabin-Karp 滚动哈希算法 网站: [zbackup.org](http://zbackup.org/) ### bup bup 是一个用 Python 写的备份程序,其名称是 "backup" 的缩写。基于 git packfile 文件格式, bup 提供了一个高效的方式来备份一个系统,提供快速的增量备份和全局去重(在文件中或文件里,甚至包括虚拟机镜像)。 bup 在 LGPL 版本 2 协议下发行。 其特点包括: * 全局去重 (在文件之间或文件内部,甚至包括虚拟机镜像) * 使用一个滚动的校验和算法(类似于 rsync) 来将大文件分为多个数据块 * 使用来自 git 的 packfile 文件格式 * 直接写入 packfile 文件,以此提供快速的增量备份 * 可以使用 "par2" 冗余来恢复冲突的备份 * 可以作为一个 FUSE 文件系统来挂载你的 bup 仓库 网站: [bup.github.io](https://bup.github.io/) --- via: <http://www.linuxlinks.com/article/20150628060000607/BackupTools.html> 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,890
10 大帮助你获得理想的职业的操作系统技能
http://www.tecmint.com/top-distributions-in-demand-to-get-your-dream-job/
2015-07-26T15:05:00
[ "操作系统", "技能" ]
https://linux.cn/article-5890-1.html
我们用了5篇系列文章,来让人们意识到那些可以帮助他们获得理想职业的顶级技能。在这个充满竞争的社会里,你不能仅仅依赖一项仅能,你需要在多个职业技能上都有所涉猎。我们并不能权衡这些技能,但是我们可以参考这些几乎不变的惯例和统计数据。 下面的文章和紧跟其后的内容,是针对全球各大IT公司上一季度对员工技能要求的详细调查报告。统计数据真实的反映了需求和市场的变化。我们会尽力让这份报告保持时效性,特别是有明显变化的时候。这五篇系列文章是: * 10 大帮助你获得理想的职业的操作系统技能 * [10 大帮助你获得职位的著名 IT 技能](http://www.tecmint.com/famous-it-skills-in-demand-that-will-get-you-hired/) * [10 大帮助你获得理想职位的项目技能](/article-5303-1.html) * [10 大帮助你赢得理想职位的网络技能](http://www.tecmint.com/networking-protocols-skills-to-land-your-dream-job/) * [10 大帮助你获得理想职位的个人认证](http://www.tecmint.com/professional-certifications-in-demand-that-will-get-you-hired/) ![](/data/attachment/album/201507/26/120752mr7wbxws2h1wxx2r.jpg) ### 1. Windows 微软研发的windows操作系统不仅在PC市场上占据龙头地位,而且从职位视角来看也是最抢手的操作系统技能,不管你是赞成还是反对。有资料显示上一季度需求增长达到0.1%. 最新版本 : Windows 8.1 ### 2. Red Hat Enterprise Linux Red Hat Enterprise Linux 是一个商业的Linux发行版本,它由红帽公司研发。它是世界上运用最广的Linux发行版本之一,特别是在生产环境和协同工作方面。上一季度其整体需求上涨17%,位列第二。 最新版本 : RedHat Enterprise Linux 7.1 ### 3. Solaris 排在第三的是 Solaris UNIX操作系统,最初由Sun Microsystems公司研发,现由Oracle公司负责继续研发。在上一季度起需求率上涨14%. 最新版本:Oracle Solaris 10 1/13 ### 4. AIX 排在第四的是AIX,这是一款由IBM研发的专用 Unix 操作系统。在上一季度需求率上涨11%。 最新版本 : AIX 7 ### 5. Android 排在第5的是谷歌公司研发的安卓系统,它是一款使用非常广泛的开源操作系统,专门为手机、平板电脑、可穿戴设备设计的。在上一季度需求率上涨4%。 最新版本 : Android 5.1 aka Lollipop ### 6. CentOS 排在第6的是 CentOS,它是从 RedHat Enterprise Linux 衍生出的一个发行版本。在上一季度需求率上涨接近22%。 最新版本 : CentOS 7 ### 7. Ubuntu 排在第7的是Ubuntu,这是一款由Canonicals公司研发设计的Linux系统,旨在服务于个人。上一季度需求率上涨11%。 最新版本 : * Ubuntu 14.10 (已有九个月的安全和维护更新). * Ubuntu 14.04.2 LTS ### 8. Suse 排在第8的是由Novell研发的 Suse,这款发行版本的Linux操作系统因为YaST 配置工具而闻名。其上一季度需求率上涨8%。 最新版本 : 13.2 ### 9. Debian 排在第9的是非常有名的 Linux 操作系统Debian,它是上百种Linux 发行版之母,非常接近GNU理念。其上一季度需求率上涨9%。 最新版本: Debian 7.8 ### 10. HP-UX 排在第10的是Hewlett-Packard公司研发的专用 Linux 操作系统HP-UX,上一季度需求率上涨5%。 最新版本 : 11i v3 Update 13 | 1 | Windows | **0.1% +** | | 2 | RedHat | **17% +** | | 3 | Solaris | **14% +** | | 4 | AIX | **11% +** | | 5 | Android | **4% +** | | 6 | CentOS | **22% +** | | 7 | Ubuntu | **11% +** | | 8 | Suse | **8% +** | | 9 | Debian | **9% -** | | 10 | HP-UX | **5% -** | 以上便是全部信息,我会尽快推出下一篇系列文章,敬请关注Tecmint。不要忘了留下您宝贵的评论。如果您喜欢我们的文章并且与我们分享您的见解,这对我们的工作是一种鼓励。 --- via: <http://www.tecmint.com/top-distributions-in-demand-to-get-your-dream-job/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[sevenot](https://github.com/sevenot) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,893
新手指南: 手把手教你安装 Ubuntu 和 Fedora
http://locez.com/Linux/install-ubuntu-and-fedora/
2016-06-06T12:15:00
[ "Ubuntu", "安装", "Fedora" ]
https://linux.cn/article-5893-1.html
Linux 由于开源,所以具备可定制性,因此衍生了许多发行版。Ubuntu 和 Fedora 算是其中对新手比较友好的两个发行版,主要是其安装较为简单,用户群多,有问题搜索出相关的信息或者找前辈解决。此文为 Linux 新手准备,通过展示整个安装过程来使 Linxu 新手完成安装 Ubuntu 或 Fedora ,也恳请各位前辈指出不足之处。 ![](/data/attachment/album/201606/06/213747wj6puk60zct54n18.jpg) ### 阅读建议 * 本文将包含 Ubuntu 和 Fedora 两个发行版的安装,请先通篇浏览全文,再决定安装哪个发行版,并且配图有相应的文字说明,请不要忽视。 * 如果你是一位新手,强烈建议使用虚拟机操作;如果你相信自己可以解决问题,也可使用 `ultraiso` 、`USBWriter` 和 `dd`命令写入 U 盘,进行实体机安装,此处不详述。 * 有任何问题都可以加入 `Linux中国-新手村` QQ 群提问,QQ 群号 `198889109` ,验证信息 `LINUX` 。 ### Ubuntu 简介 Ubuntu 是一个基于 Debian 的 GNU/Linux 操作系统,支持 X86 、64以及 PPC 架构。Ubuntu 每隔六个月发布一个版本,即每年的四月和十月,本文使用的是 `15.04 64-bit` 版本。Ubuntu 对于新手应该是比较友好的一个 Linux 发行版,中文本地化也做的不错,有开箱即用的感觉。因为 Ubuntu 近几年用户群的增加,多了很多对于新手有用的资料,因此不用担心遇到问题无法解决,善用搜索和提问,将使你更快速地成长。 更多 Ubuntu 的介绍请移步:[Ubuntu 17.04 (Zesty Zapus)/Ubuntu 16.04.2 LTS (Xenial Xerus)](/article-3238-1.html "Ubuntu 17.04 (Zesty Zapus)/Ubuntu 16.04.2 LTS (Xenial Xerus) ") 。 ### Fedora 简介 Fedora 是一个由 Fedora 社区开发的 Linux 发行版,由 Red Hat 公司赞助。可以将 Fedora 看成是 Red Hat Linux 个人使用的代替,由于有 Red Hat 公司的支持,Fedora 的功能非常完善,还分为 WORKSTATION 、SERVER 和 CLOUD 版本。本文使用的是 **Fedora 22 WORKSTATION (工作站)**,Fedora 22 已经将包管理器从 `YUM` 改为 `DNF` ,因此建议学习者直接学习 `DNF` 。 更多 Fedora 的介绍请移步:[Fedora 27](/article-3237-1.html "Fedora 27") 。 ### 本文环境 * **注意*****:*****本文下载链接直达官方下载,并且不断更新,以使****新的 Linux 用户可以用上最新的发行版,且文中的安装步骤基本不因版本的更替而改变。** * Windows 8.1 64-bit * [VirtualBox-5.2.4](/article-5794-1.html) [点此下载](http://download.virtualbox.org/virtualbox/5.2.4/VirtualBox-5.2.4-119785-Win.exe) * Ubuntu 16.04 LTS 64-bit [点此下载](http://releases.ubuntu.com/16.04.3/ubuntu-16.04.3-desktop-amd64.iso) * Ubuntu 16.04 LTS 32-bit 适合配置较低的用户使用 [点此下载](http://releases.ubuntu.com/16.04.3/ubuntu-16.04.3-desktop-i386.iso) * Fedora 27 64-bit [点此下载](https://download.fedoraproject.org/pub/fedora/linux/releases/27/Workstation/x86_64/iso/Fedora-Workstation-Live-x86_64-27-1.6.iso) * Fedora 25 32-bit 适合配置较低用户使用 [点此下载](https://mirrors.ustc.edu.cn/fedora/releases/25/Workstation/i386/iso/Fedora-Workstation-Live-i386-25-1.3.iso) 更多 Linux 发行版的下载,可以看这里:[Linux 下载](/article-4130-1.html "Linux 下载") 。 ### Ubuntu 安装 #### 1.新建与加载盘片 当你安装完 VirtualBox 后,打开你应该会看到下面这样的界面 ![VirutalBox](/data/attachment/album/201507/26/230210cemyywweqgwwceeo.png) 点击新建后会出来如下图所示的界面,一般如图填写即可,内存可酌情填写 ![新建虚拟电脑](/data/attachment/album/201507/26/230211ag6ggpqdxhh2x7gg.png) 下一步将创建虚拟硬盘,如图所示,默认位置为 C 盘,如果你不想在 C 盘创建,请确保你选择的盘格式为NTFS ![创建虚拟硬盘](/data/attachment/album/201507/26/230211upm7dd7dsztd6223.png) 创建完成后,请点 `设置` 如图加载 ISO 文件 ![加载 ISO 文件](/data/attachment/album/201507/26/230212foxososp75skz2h3.png) #### 2.安装 Ubuntu 点击**启动** ,会开机,进入如下界面 ![开始安装](/data/attachment/album/201507/26/230212tfy6afa0yy7lqyh0.png) ![安装选项](/data/attachment/album/201507/26/230212ok12zd1dz4egei4t.png) 这里请注意,如果你与笔者一样使用虚拟机,强烈建议选择 **清除整个磁盘并安装 Ubuntu** ,但如果你要装到实体机与 Windows 形成双系统时,请选择 **其他选项** ,但这要求你对 Linxu 有一定的了解且具备一定的基础进行分区操作,注意不要覆盖 Windows 的 C 盘,此处由于篇幅原因,不再详述。 ![安装类型](/data/attachment/album/201507/26/230213zchehg7hrj7fyfr2.png) 如图,进行用户设定,**计算机名** 是主机名,**用户名** 是登录时用的账户名称,**密码** 则是你所设 **用户名** 的登录密码,请务必记牢。 ![添加用户](/data/attachment/album/201507/26/230213p4b2tq55ae4sjz22.png) 这一步之后会选择时区,直接点下一步即可,键盘选择如下图 ![选择键盘布局](/data/attachment/album/201507/26/230213ca443s4r4z3srelr.png) 配置选择已完成,接下来请耐心等待安装过程,如图,请不要点击 **SKIP** ![安装中](/data/attachment/album/201507/26/230214o692qht9i9tkffk6.png) 耐心等待安装完成,然后会重启进入系统,用你上面配置的用户名和密码登录,请注意最好不要登录 `root` ,你可以用 `sudo` 命令来获取相应的权限,下图是展示成果: ![安装完成](/data/attachment/album/201507/26/230214ssckxph4fho4hhee.png) ### Fedora 安装 #### 1.新建与加载盘片 请参考上面的 Ubuntu 部分。 #### 2.安装 Fedora 点击 **启动**,会开机,进入如下界面,如图操作 ![开始安装](/data/attachment/album/201507/26/230214oydrj7ce1761f4gs.png) 接下来依然是如图操作 ![安装到硬盘](/data/attachment/album/201507/26/230215ximhv3r9a2f9qizf.png) 然后是选择语言,选择完后进入如图界面 ![安装信息摘要](/data/attachment/album/201507/26/230215k99mdfwl3jp3kldz.png) 配置安装位置,这里请注意,如果你与笔者一样使用虚拟机,强烈建议选择 **自动配置分区** ;但如果你要装到实体机与 Windows 形成双系统时,请选择 **我要配置分区** ,但这要求你对 Linxu 有一定的了解且具备一定的基础进行分区操作,注意不要覆盖 Windows 的 C 盘,此处由于篇幅原因,不再详述。 ![选择安装目标](/data/attachment/album/201507/26/230216zk1obsqmz7bxmz6q.png) 下一步将创建 `root` 和 **日常使用账户** ,`root` 账户有最大的管理权限,你甚至可以将整个系统删除,所以使用 `root` 账户请务必小心,**日常使用账户** 应作为你的习惯使用账户,必要时只需使用 `sudo` 命令暂时提升权限即可,更多说明如图所示 ![创建用户和密码](/data/attachment/album/201508/16/212331r2wdmvrucvcmgrv2.png) `root` 配置只需创建密码即可,下图是 **日常使用账户** 配置 ![创建用户](/data/attachment/album/201507/26/230216dvc0clb4zic4nej8.png) 配置完后将回到之前的界面,请耐心等待安装,如图 ![安装中](/data/attachment/album/201507/26/230217el3bnhonpaofbfnp.png) 安装完成,点击 **退出** 后,进入的依然是 Live CD 环境,请先关机,再执行下一步 ![安装完成,退出关机](/data/attachment/album/201507/26/230219xagjlgkgqurqvivi.png) 由于 Fedora 未自动卸载盘片,因此需要手动卸载盘片,否则将再次进入 Live CD 环境,请如图操作 ![卸载盘片](/data/attachment/album/201507/26/230219krn2uf1sjs5fzooo.png) 接下来则是点击 **启动** 进入你的 Fedora ,使用你上面设置的用户名和密码登录,请注意最好不要登录 `root` ,你可以用 `sudo` 命令来获取相应的权限,下图是展示成果 ![安装成功](/data/attachment/album/201507/26/230220nl17l2zmyi1iyz11.png) ### 参考资料 --- * [Ubuntu-Wikipedia](https://zh.wikipedia.org/wiki/Ubuntu) * [Fedora-Wikipedia](https://zh.wikipedia.org/wiki/Fedora)
301
Moved Permanently
null
5,894
GNU、开源和 Apple 的那些黑历史
http://thevarguy.com/open-source-application-software-companies/051815/linux-better-os-x-gnu-open-source-and-apple-
2015-07-27T08:07:00
[ "Apple", "开源", "GNU" ]
/article-5894-1.html
> > 自由软件/开源社区与 Apple 之间的争论可以回溯到上世纪80年代,当时 Linux 的创始人称 Mac OS X 的核心就是“一堆废物”。还有其他一些软件史上的轶事。 > > > ![](/data/attachment/album/201507/27/000818kgg4ppjeuuphdre2.png) 开源拥护者们与微软之间有着很长、而且摇摆的关系。每个人都知道这个。但是,在许多方面,自由或者开源软件的支持者们与 Apple 之间的争执则更加突出——尽管这很少受到媒体的关注。 需要说明的是,并不是所有的开源拥护者都厌恶苹果。从各种轶事中,我已经见过很多 Linux 的黑客玩耍 iPhone 和iPad。实际上,许多 Linux 用户是十分喜欢 Apple 的 OS X 系统的,以至于他们[创造了很多Linux的发行版](https://www.linux.com/news/software/applications/773516-the-mac-ifying-of-the-linux-desktop/),都设计得看起来像OS X。(顺便说下,[北朝鲜政府](http://thevarguy.com/open-source-application-software-companies/010615/north-koreas-red-star-linux-os-made-apples-image)就这样做了。) 但是 Mac 的信徒与企鹅的信徒——即 Linux 社区(不包括别的,仅指自由与开源软件世界中的这一小部分)之间的关系,并不一直是完全的和谐。并且这绝不是一个新的现象,在我研究Linux和自由软件基金会历史的时候就发现了。 ### GNU vs. Apple 这场战争将回溯到至少上世纪80年代后期。1988年6月,Richard Stallman 发起了 [GNU](http://gnu.org/) 项目,希望建立一个完全自由的类 Unix 操作系统,其源代码将会免费共享,[强烈指责](https://www.gnu.org/bulletins/bull5.html) Apple 对 [Hewlett-Packard](http://www.hp.com/)(HPQ)和 [Microsoft](http://www.microsoft.com/)(MSFT)的诉讼,称Apple的声明中说别人对 Macintosh 操作系统的界面和体验的抄袭是不正确。如果 Apple 流行的话,GNU 警告到,这家公司“将会借助大众的新力量终结掉为取代商业软件而生的自由软件。” 那个时候,GNU 对抗 Apple 的诉讼(这意味着,十分讽刺的是,GNU 正在支持 Microsoft,尽管当时的情况不一样),通过发布[“让你的律师远离我的电脑”按钮](http://www.duntemann.com/AppleSnakeButton.jpg)。同时呼吁 GNU 的支持者们抵制 Apple,警告虽然 Macintosh 看起来是不错的计算机,但 Apple 一旦赢得了诉讼就会给市场带来垄断,这会极大地提高计算机的售价。 Apple 最终[输掉了这场诉讼](http://www.freibrun.com/articles/articl12.htm),但是直到1994年之后,GNU 才[撤销对 Apple 的抵制](https://www.gnu.org/bulletins/bull18.html#SEC6)。这期间,GNU 一直不断指责 Apple。在上世纪90年代早期甚至之后,GNU 开始发展 GNU 软件项目,可以在其他个人电脑平台包括 MS-DOS 计算机上使用。[GNU 宣称](https://www.gnu.org/bulletins/bull12.html),除非 Apple 停止在计算机领域垄断的野心,让用户界面可以模仿 Macintosh 的一些东西,否则“我们不会提供任何对 Apple 机器的支持。”(因此讽刺的是 Apple 在90年代后期开发的类 UNIX 系统 OS X 有一大堆软件来自GNU。但是那是另外的故事了。) ### Torvalds 与 Jobs 除去他对大多数发行版比较自由放任的态度,Linux内核的创造者 Liuns Torvalds 相较于 Stallman 和 GNU 过去对Apple 的态度和善得多。在他 2001 年出版的书”Just For Fun: The Story of an Accidental Revolutionary“中,Torvalds 描述到与 Steve Jobs 的一次会面,大约是 1997 年收到后者的邀请去讨论 Mac OS X,当时 Apple 正在开发中,但还没有公开发布。 “基本上,Jobs 一开始就试图告诉我在桌面上的玩家就两个,Microsoft 和 Apple,而且他认为我能为 Linux 做的最好的事,就是从了 Apple,努力让开源用户去支持 Mac OS X” Torvalds 写道。 这次会谈显然让 Torvalds 很不爽。争吵的一点集中在 Torvalds 对 Mach 技术上的藐视,对于 Apple 正在用于构建新的 OS X 操作系统的内核,Torvalds 称其“一堆废物。它包含了所有你能做到的设计错误,并且甚至打算只弥补一小部分。” 但是更令人不快的是,显然是 Jobs 在开发 OS X 时入侵开源的方式(OS X 的核心里上有很多开源程序):“他有点贬低了结构的瑕疵:谁在乎基础操作系统这个真正的 low-core 东西是不是开源,如果你有 Mac 层在最上面,这不是开源?” 一切的一切,Torvalds 总结到,Jobs “并没有太多争论。他仅仅很简单地说着,胸有成竹地认为我会对与 Apple 合作感兴趣”。“他一无所知,不能去想像还会有人并不关心 Mac 市场份额的增长。我认为他真的感到惊讶了,当我表现出对 Mac 的市场有多大,或者 Microsoft 市场有多大的毫不关心时。” 当然,Torvalds 并没有对所有 Linux 用户说起过。他对于 OS X 和 Apple 的看法从 2001 年开始就渐渐软化了。但实际上,早在2000年,Linux 社区的领导角色表现出对 Apple 及其高层的傲慢的深深的鄙视,可以看出一些重要的东西,关于 Apple 世界和开源/自由软件世界的矛盾是多么的根深蒂固。 从以上两则历史上的花边新闻中,可以看到关于 Apple 产品价值的重大争议,即是否该公司致力于提升其创造的软硬件的质量,或者仅仅是借市场的小聪明获利,让Apple产品卖出更多的钱而不是创造等同其价值的功能。但是不管怎样,我会暂时置身讨论之外。 --- via: <http://thevarguy.com/open-source-application-software-companies/051815/linux-better-os-x-gnu-open-source-and-apple-> 作者:[Christopher Tozzi](http://thevarguy.com/author/christopher-tozzi) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='thevarguy.com', port=80): Max retries exceeded with url: /open-source-application-software-companies/051815/linux-better-os-x-gnu-open-source-and-apple- (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c59f0>: Failed to resolve 'thevarguy.com' ([Errno -2] Name or service not known)"))
null
5,898
监控 Linux 系统的 7 个命令行工具
http://www.networkworld.com/article/2937219/linux/7-command-line-tools-for-monitoring-your-linux-system.html
2015-07-28T15:29:00
[ "性能监测" ]
https://linux.cn/article-5898-1.html
**这里有一些基本的命令行工具,让你能更简单地探索和操作Linux。** ![Image courtesy Meltys-stock](/data/attachment/album/201507/27/133018kzwyfpi5umzj8fpw.png) ### 深入 关于Linux最棒的一件事之一是你能深入操作系统,来探索它是如何工作的,并寻找机会来微调性能或诊断问题。这里有一些基本的命令行工具,让你能更简单地探索和操作Linux。大多数的这些命令是在你的Linux系统中已经内建的,但假如它们没有的话,就用谷歌搜索命令名和你的发行版名吧,你会找到哪些包需要安装(注意,一些命令是和其它命令捆绑起来打成一个包的,你所找的包可能写的是其它的名字)。如果你知道一些你所使用的其它工具,欢迎评论。 ### 我们怎么开始 ![](/data/attachment/album/201507/27/133018i28lhhch4m4ck6e2.png) 须知: 本文中的截图取自一台[Debian Linux 8.1](https://www.debian.org/releases/stable/) (“Jessie”),其运行在[OS X 10.10.3](http://www.apple.com/osx/) (“Yosemite”)操作系统下的[Oracle VirtualBox 4.3.28](https://www.virtualbox.org/)中的一台虚拟机里。想要建立你的Debian虚拟机,可以看看我的这篇教程——“[如何在 VirtualBox VM 下安装 Debian](http://www.networkworld.com/article/2937148/how-to-install-debian-linux-8-1-in-a-virtualbox-vm)”。 ### Top ![](/data/attachment/album/201507/27/133019n7fgxqu2oo42gg36.png) 作为Linux系统监控工具中比较易用的一个,**top命令**能带我们一览Linux中的几乎每一处。以下这张图是它的默认界面,但是按“z”键可以切换不同的显示颜色。其它热键和命令则有其它的功能,例如显示概要信息和内存信息(第四行第二个),根据各种不一样的条件排序、终止进程任务等等(你可以在[这里](http://linux.die.net/man/1/top)找到完整的列表)。 ### htop ![](/data/attachment/album/201507/27/133019qxc8rr8ggep8bqlp.png) 相比top,它的替代品Htop则更为精致。维基百科是这样描述的:“用户经常会部署htop以免Unix top不能提供关于系统进程的足够信息,比如说当你在尝试发现应用程序里的一个小的内存泄露问题,Htop一般也能作为一个系统监听器来使用。相比top,它提供了一个更方便的光标控制界面来向进程发送信号。” (想了解更多细节猛戳[这里](http://linux.die.net/man/1/htop)) ### Vmstat ![](/data/attachment/album/201507/27/133019puaclolozo2cl6zz.png) Vmstat是一款监控Linux系统性能数据的简易工具,这让它更合适使用在shell脚本中。使出你的正则表达式绝招,用vmstat和cron作业来做一些激动人心的事情吧。“后面的报告给出的是上一次系统重启之后的均值,另外一份报告给出的则是从前一个报告起间隔周期中的信息。其它的进程和内存报告是那个瞬态的情况”(猛戳[这里](http://linuxcommand.org/man_pages/vmstat8.html)获取更多信息)。 ### ps ![](/data/attachment/album/201507/27/133020im2rfrctrxffg7f4.png) ps命令展现的是正在运行中的进程列表。在这种情况下,我们用“-e”选项来显示每个进程,也就是所有正在运行的进程了(我把列表滚动到了前面,否则列名就看不到了)。这个命令有很多选项允许你去按需格式化输出。只要使用上述一点点的正则表达式技巧,你就能得到一个强大的工具了。猛戳[这里](http://linux.die.net/man/1/ps)获取更多信息。 ### Pstree ![](/data/attachment/album/201507/27/133020o99r5xx4iac4yvvn.png) Pstree“以树状图显示正在运行中的进程。这个进程树是以某个 pid 为根节点的,如果pid被省略的话那树是以init为根节点的。如果指定用户名,那所有进程树都会以该用户所属的进程为父进程进行显示。”以树状图来帮你将进程之间的所属关系进行分类,这的确是个很有效的工具(戳[这里](http://linux.die.net/man/1/pstree))。 ### pmap ![](/data/attachment/album/201507/27/133020j7u76uo7sbzx7nqg.png) 在调试过程中,理解一个应用程序如何使用内存是至关重要的,而pmap的作用就是当给出一个进程ID时显示出相关信息。上面的截图展示的是使用“-x”选项所产生的部分输出,你也可以用pmap的“-X”选项来获取更多的细节信息,但是前提是你要有个更宽的终端窗口。 ### iostat ![](/data/attachment/album/201507/27/133021g2c2bjbfamarkgz4.png) Linux系统的一个至关重要的性能指标是处理器和存储的使用率,它也是iostat命令所报告的内容。如同ps命令一样,iostat有很多选项允许你选择你需要的输出格式,除此之外还可以在某一段时间范围内的重复采样几次。详情请戳[这里](http://linux.die.net/man/1/iostat)。 --- via: <http://www.networkworld.com/article/2937219/linux/7-command-line-tools-for-monitoring-your-linux-system.html> 作者:[Mark Gibbs](http://www.networkworld.com/author/Mark-Gibbs/) 译者:[ZTinoZ](https://github.com/ZTinoZ) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,904
如何修复 ubuntu 中检测到系统程序错误的问题
http://itsfoss.com/how-to-fix-system-program-problem-detected-ubuntu/
2015-07-28T10:55:00
[ "Ubuntu", "apport", "错误" ]
https://linux.cn/article-5904-1.html
![](/data/attachment/album/201507/27/235652r1upcry7cbquitmu.jpg) 在过去的几个星期,(几乎)每次都有消息 **Ubuntu 15.04在启动时检测到系统程序错误** 跑出来“欢迎”我。那时我是直接忽略掉它的,但是这种情况到了某个时刻,它就让人觉得非常烦人了! > > 检测到系统程序错误(System program problem detected) > > > 你想立即报告这个问题吗? > > > ![](/data/attachment/album/201507/27/235653c0ffnx07o7h3h3fe.png) > > > 我肯定地知道如果你是一个Ubuntu用户,你可能曾经也遇到过这个恼人的弹窗。在本文中,我们将探讨在Ubuntu 14.04和15.04中遇到"检测到系统程序错误(system program problem detected)"时 应该怎么办。 ### 怎么解决Ubuntu中"检测到系统程序错误"的错误 #### 那么这个通知到底是关于什么的? 大体上讲,它是在告知你,你的系统的一部分崩溃了。可别因为“崩溃”这个词而恐慌。这不是一个严重的问题,你的系统还是完完全全可用的。只是在之前的某个时刻某个程序崩溃了,而Ubuntu想让你决定要不要把这个问题报告给开发者,这样他们就能够修复这个问题。 #### 那么,我们点了“报告错误”的按钮后,它以后就不再显示了? 不,不是的!即使你点了“报告错误”按钮,最后你还是会被一个如下的弹窗再次“欢迎”一下: ![](/data/attachment/album/201507/27/235653ojpkxxlljoefipz3.png) [对不起,Ubuntu发生了一个内部错误](http://itsfoss.com/how-to-solve-sorry-ubuntu-12-04-has-experienced-an-internal-error/)是个Apport(LCTT 译注:Apport是Ubuntu中错误信息的收集报告系统,详见Ubuntu Wiki中的Apport篇),它将会进一步的打开网页浏览器,然后你可以通过登录或创建[Launchpad](https://launchpad.net/)帐户来填写一份漏洞(Bug)报告文件。你看,这是一个复杂的过程,它要花整整四步来完成。 #### 但是我想帮助开发者,让他们知道这个漏洞啊 ! 你这样想的确非常地周到体贴,而且这样做也是正确的。但是这样做的话,存在两个问题。第一,存在非常高的概率,这个漏洞已经被报告过了;第二,即使你报告了个这次崩溃,也无法保证你不会再看到它。 #### 那么,你的意思就是说别报告这次崩溃了? 对,也不对。如果你想的话,在你第一次看到它的时候报告它。你可以在上面图片显示的“显示细节(Show Details)”中,查看崩溃的程序。但是如果你总是看到它,或者你不想报告漏洞(Bug),那么我建议你还是一次性摆脱这个问题吧。 ### 修复Ubuntu中“检测到系统程序错误”的错误 这些错误报告被存放在Ubuntu中目录/var/crash中。如果你翻看这个目录的话,应该可以看到有一些以crash结尾的文件。 ![](/data/attachment/album/201507/27/235654c0ab8fhh6tlhavc6.jpg) 我的建议是删除这些错误报告。打开一个终端,执行下面的命令: ``` sudo rm /var/crash/* ``` 这个操作会删除所有在/var/crash目录下的所有内容。这样你就不会再被这些报告以前程序错误的弹窗所扰。但是如果又有一个程序崩溃了,你就会再次看到“检测到系统程序错误”的错误。你可以再次删除这些报告文件,或者你可以禁用Apport来彻底地摆脱这个错误弹窗。 #### 彻底地摆脱Ubuntu中的系统错误弹窗 如果你这样做,系统中任何程序崩溃时,系统都不会再通知你。如果你想问问我的看法的话,我会说,这不是一件坏事,除非你愿意填写错误报告。如果你不想填写错误报告,那么这些错误通知存不存在都不会有什么区别。 要禁止Apport,并且彻底地摆脱Ubuntu系统中的程序崩溃报告,打开一个终端,输入以下命令: ``` gksu gedit /etc/default/apport ``` 这个文件的内容是: ``` # 设置0表示禁用Apportw,或者1开启它。 # 你可以用下面的命令暂时关闭它: # sudo service apport start force_start=1 enabled=1 ``` 把**enabled=1**改为**enabled=0**。保存并关闭文件。完成之后你就再也不会看到弹窗报告错误了。很显然,如果我们想重新开启错误报告功能,只要再打开这个文件,把enabled设置为1就可以了。 #### 你的有效吗? 我希望这篇教程能够帮助你修复Ubuntu 14.04和Ubuntu 15.04中检测到系统程序错误的问题。如果这个小窍门帮你摆脱了这个烦人的问题,请让我知道。 --- via: <http://itsfoss.com/how-to-fix-system-program-problem-detected-ubuntu/> 作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[XLCYun](https://github.com/XLCYun) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,905
在 Linux 中安装 Google 环聊桌面客户端
http://itsfoss.com/install-google-hangouts-linux/
2015-07-28T13:03:00
[ "google", "环聊" ]
https://linux.cn/article-5905-1.html
![](/data/attachment/album/201507/28/000548px0dmcbxgwtjlljl.jpg) 先前,我们已经介绍了如何[在 Linux 中安装 Facebook Messenger](http://itsfoss.com/facebook-messenger-linux/) 和[WhatsApp 桌面客户端](http://itsfoss.com/whatsapp-linux-desktop/)。这些应用都是非官方的应用。今天,我将为你推荐另一款非官方的应用,它就是 [Google 环聊](http://www.google.com/+/learnmore/hangouts/)。 当然,你可以在 Web 浏览器中使用 Google 环聊,但相比于此,使用桌面客户端会更加有趣。好奇吗?那就跟着我看看如何 **在 Linux 中安装 Google 环聊** 以及如何使用它吧。 ### 在 Linux 中安装 Google 环聊 我们将使用一个名为 [yakyak](https://github.com/yakyak/yakyak) 的开源项目,它是一个针对 Linux,Windows 和 OS X 平台的非官方 Google 环聊客户端。我将向你展示如何在 Ubuntu 中使用 yakyak,但我相信在其他的 Linux 发行版本中,你可以使用同样的方法来使用它。在了解如何使用它之前,让我们先看看 yakyak 的主要特点: * 发送和接受聊天信息 * 创建和更改对话 (重命名, 添加参与者) * 离开或删除对话 * 桌面提醒通知 * 打开或关闭通知 * 对于图片上传,支持拖放,复制粘贴或使用上传按钮 * Hangupsbot 房间同步(使用用户实际的图片) * 展示行内图片 * 翻阅历史 听起来不错吧,你可以从下面的链接下载到该软件的安装文件: * [下载 Google 环聊客户端 yakyak](https://github.com/yakyak/yakyak) 下载的文件是压缩的。解压后,你将看到一个名称类似于 linux-x64 或 linux-x32 的目录,其名称取决于你的系统。进入这个目录,你应该可以看到一个名为 yakyak 的文件。双击这个文件来启动它。 ![在 Linux 中运行 Run Google 环聊](/data/attachment/album/201507/28/000548zwny7tgy7ngwzxto.jpg) 当然,你需要键入你的 Google 账号来认证。 ![在 Ubuntu 中设置 Google 环聊](/data/attachment/album/201507/28/000549wopogeoz5ho4hbnx.jpg) 一旦你通过认证后,你将看到如下的画面,在这里你可以和你的 Google 联系人进行聊天。 ![Google_Hangout_Linux_4](/data/attachment/album/201507/28/000549j5xtt11p6v9tum8f.jpg) 假如你想在联系人里面显示用户头像,你可以选择 `查看-> 展示对话缩略图` ![Google 环聊缩略图](/data/attachment/album/201507/28/000549q60w6jwswsvj0wgw.jpg) 当有新的信息时,你将得到桌面提醒。 ![在 Ubuntu 中 Google 环聊的桌面提醒](/data/attachment/album/201507/28/000550tp0z3ccsseqie3q3.jpg) ### 值得一试吗? 我让你尝试一下,并决定 **在 Linux 中安装 Google 环聊客户端** 是否值得。若你想要官方的应用,你可以看看这些 [拥有原生 Linux 客户端的即时消息应用程序](http://itsfoss.com/best-messaging-apps-linux/)。不要忘记分享你在 Linux 中使用 Google 环聊的体验。 --- via: <http://itsfoss.com/install-google-hangouts-linux/> 作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,906
在 Linux 命令行中使用和执行 PHP 代码(一)
http://www.tecmint.com/run-php-codes-from-linux-commandline/
2015-07-29T10:18:00
[ "PHP", "命令行" ]
https://linux.cn/article-5906-1.html
PHP是一个开源服务器端脚本语言,最初这三个字母代表的是“Personal Home Page”,而现在则代表的是“PHP:Hypertext Preprocessor”,它是个递归首字母缩写。它是一个跨平台脚本语言,深受C、C++和Java的影响。 ![Run PHP Codes in Linux Command Line](/data/attachment/album/201507/28/002201zbxnhk6hns97o1h4.jpg) *在 Linux 命令行中运行 PHP 代码* PHP的语法和C、Java以及带有一些PHP特性的Perl变成语言中的语法十分相似,它当下大约正被2.6亿个网站所使用,当前最新的稳定版本是PHP版本5.6.10。 PHP是HTML的嵌入脚本,它便于开发人员快速写出动态生成的页面。PHP主要用于服务器端(而Javascript则用于客户端)以通过HTTP生成动态网页,然而,当你知道可以在Linux终端中不需要网页浏览器来执行PHP时,你或许会大为惊讶。 本文将阐述PHP脚本语言的命令行方面。 **1. 在安装完PHP和Apache2后,我们需要安装PHP命令行解释器。** ``` # apt-get install php5-cli [Debian 及类似系统] # yum install php-cli [CentOS 及类似系统] ``` 接下来我们通常要做的是,在`/var/www/html`(这是 Apache2 在大多数发行版中的工作目录)这个位置创建一个内容为 `<?php phpinfo(); ?>`,名为 `infophp.php` 的文件来测试(PHP是否安装正确),执行以下命令即可。 ``` # echo '<?php phpinfo(); ?>' > /var/www/html/infophp.php ``` 然后,将浏览器访问 <http://127.0.0.1/infophp.php> ,这将会在网络浏览器中打开该文件。 ![Check PHP Info](/data/attachment/album/201507/28/002201qb70avd7h07hhp00.png) *检查PHP信息* 不需要任何浏览器,在Linux终端中也可以获得相同的结果。在Linux命令行中执行`/var/www/html/infophp.php`,如: ``` # php -f /var/www/html/infophp.php ``` ![Check PHP info from Commandline](/data/attachment/album/201507/28/002202himv1tlv2i0tmmvq.png) *从命令行检查PHP信息* 由于输出结果太大,我们可以通过管道将上述输出结果输送给 `less` 命令,这样就可以一次输出一屏了,命令如下: ``` # php -f /var/www/html/infophp.php | less ``` ![Check All PHP Info](/data/attachment/album/201507/28/002202wmxa0bndd44hh0ku.png) *检查所有PHP信息* 这里,‘-f‘选项解析并执行命令后跟随的文件。 **2. 我们可以直接在Linux命令行使用`phpinfo()`这个十分有价值的调试工具而不需要从文件来调用,只需执行以下命令:** ``` # php -r 'phpinfo();' ``` ![PHP Debugging Tool](/data/attachment/album/201507/28/002203sv7s6snt66c434ag.png) *PHP调试工具* 这里,‘-r‘ 选项会让PHP代码在Linux终端中不带`<`和`>`标记直接执行。 **3. 以交互模式运行PHP并做一些数学运算。这里,‘-a‘ 选项用于以交互模式运行PHP。** ``` # php -a Interactive shell php > echo 2+3; 5 php > echo 9-6; 3 php > echo 5*4; 20 php > echo 12/3; 4 php > echo 12/5; 2.4 php > echo 2+3-1; 4 php > echo 2+3-1*3; 2 php > exit ``` 输入 ‘exit‘ 或者按下 ‘ctrl+c‘ 来关闭PHP交互模式。 ![Enable PHP Interactive Mode](/data/attachment/album/201507/28/002203p21ncdzdhgrxywg5.png) *启用PHP交互模式* **4. 你可以仅仅将PHP脚本作为shell脚本来运行。首先,创建在你当前工作目录中创建一个PHP样例脚本。** ``` # echo -e '#!/usr/bin/php\n<?php phpinfo(); ?>' > phpscript.php ``` 注意,我们在该PHP脚本的第一行使用`#!/usr/bin/php`,就像在shell脚本中那样(`/bin/bash`)。第一行的`#!/usr/bin/php`告诉Linux命令行用 PHP 解释器来解析该脚本文件。 其次,让该脚本可执行: ``` # chmod 755 phpscript.php ``` 接着来运行它, ``` # ./phpscript.php ``` **5. 你可以完全靠自己通过交互shell来创建简单函数,这你一定会被惊到了。下面是循序渐进的指南。** 开启PHP交互模式。 ``` # php -a ``` 创建一个函数,将它命名为 `addition`。同时,声明两个变量 `$a` 和 `$b`。 ``` php > function addition ($a, $b) ``` 使用花括号来在其间为该函数定义规则。 ``` php > { ``` 定义规则。这里,该规则讲的是添加这两个变量。 ``` php { echo $a + $b; ``` 所有规则定义完毕,通过闭合花括号来封装规则。 ``` php {} ``` 测试函数,添加数字4和3,命令如下: ``` php > var_dump (addition(4,3)); ``` #### 样例输出 ``` 7NULL ``` 你可以运行以下代码来执行该函数,你可以测试不同的值,你想来多少次都行。将里头的 a 和 b 替换成你自己的值。 ``` php > var_dump (addition(a,b)); ``` --- ``` php > var_dump (addition(9,3.3)); ``` #### 样例输出 ``` 12.3NULL ``` ![Create PHP Functions](/data/attachment/album/201507/28/002204c8gxngcmzbs6s6aq.png) *创建PHP函数* 你可以一直运行该函数,直至退出交互模式(ctrl+z)。同时,你也应该注意到了,上面输出结果中返回的数据类型为 NULL。这个问题可以通过要求 php 交互 shell用 return 代替 echo 返回结果来修复。 只需要在上面的函数的中 ‘echo‘ 声明用 ‘return‘ 来替换 替换 ``` php { echo $a + $b; ``` 为 ``` php { return $a + $b; ``` 剩下的东西和原理仍然一样。 这里是一个样例,在该样例的输出结果中返回了正确的数据类型。 ![PHP Functions](/data/attachment/album/201507/28/002204bfvaqizj0iqvf5na.png) *PHP函数* 永远都记住,用户定义的函数不会从一个shell会话保留到下一个shell会话,因此,一旦你退出交互shell,它就会丢失了。 希望你喜欢此次教程。保持连线,你会获得更多此类文章。保持关注,保持健康。请在下面的评论中为我们提供有价值的反馈。点赞并分享,帮助我们扩散。 还请阅读: [12个Linux终端中有用的的PHP命令行用法——第二部分](http://www.tecmint.com/execute-php-codes-functions-in-linux-commandline/) --- via: <http://www.tecmint.com/run-php-codes-from-linux-commandline/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,909
修复Linux中的“提供类似行编辑的袖珍BASH...”的GRUB错误
http://itsfoss.com/fix-minimal-bash-line-editing-supported-grub-error-linux/
2015-07-29T10:08:00
[ "Boot Repair", "grub", "引导" ]
https://linux.cn/article-5909-1.html
这两天我[安装了Elementary OS和Windows双系统](http://itsfoss.com/guide-install-elementary-os-luna/),在启动的时候遇到了一个Grub错误。命令行中呈现如下信息: **Minimal BASH like line editing is supported. For the first word, TAB lists possible command completions. anywhere else TAB lists possible device or file completions.** **提供类似行编辑的袖珍 BASH。TAB键补全第一个词,列出可以使用的命令。除此之外,TAB键补全可以列出可用的设备或文件。** ![](/data/attachment/album/201507/28/220957eexaknnpnwdwjjjg.jpg) 事实上这并不是Elementary OS独有的错误。这是常见的[Grub](http://www.gnu.org/software/grub/)错误,会在Ubuntu,Fedora,Linux Mint等Linux操作系统上发生。 通过这篇文章里我们可以学到基于Linux系统**如何修复Ubuntu中出现的“minimal BASH like line editing is supported” Grub错误**。 > > 你可以参阅这篇教程来修复类似的常见问题,[错误:分区未找到Linux grub救援模式](http://itsfoss.com/solve-error-partition-grub-rescue-ubuntu-linux/)。 > > > ### 先决条件 要修复这个问题,你需要达成以下的条件: * 一个包含相同版本、相同OS的LiveUSB或磁盘 * 当前会话的Internet连接正常工作 在确认了你拥有先决条件了之后,让我们看看如何修复Linux的死亡黑屏(如果我可以这样的称呼它的话 ;) )。 ### 如何在基于Ubuntu的Linux中修复“minimal BASH like line editing is supported” Grub错误 我知道你一定疑问这种Grub错误并不局限于在基于Ubuntu的Linux发行版上发生,那为什么我要强调在基于Ubuntu的发行版上呢?原因是,在这里我们将采用一个简单的方法,用个叫做**Boot Repair**的工具来修复我们的问题。我并不确定在其他的诸如Fedora的发行版中是否有这个工具可用。不再浪费时间,我们来看如何修复“minimal BASH like line editing is supported” Grub错误。 ### 步骤 1: 引导进入lives会话 插入live USB,引导进入live会话。 ### 步骤 2: 安装 Boot Repair 等你进入了lives会话后,打开终端使用以下命令来安装Boot Repair: ``` sudo add-apt-repository ppa:yannubuntu/boot-repair sudo apt-get update sudo apt-get install boot-repair ``` 注意:推荐这篇教程[如何修复 apt-get update 无法添加新的 CD-ROM 的错误](http://itsfoss.com/fix-failed-fetch-cdrom-aptget-update-add-cdroms/),如果你在运行以上命令是遭遇同样的问题。 ### 步骤 3: 使用Boot Repair修复引导 装完Boot Repair后,在命令行运行如下命令启动: ``` boot-repair & ``` 其实操作非常简单直接,你仅需按照Boot Repair工具提供的说明操作即可。首先,点击Boot Repair中的**Recommended repair**选项。 ![](/data/attachment/album/201507/28/220958wflmh6m254l28bhz.png) Boot Repair需要花费一些时间来分析引导和Grub中存在的问题。然后,它会提供一些可在命令行中直接运行的命令。将这些命令一个个在终端中执行。我这边屏幕上显示的是: ![](/data/attachment/album/201507/28/221000qqpqjyzjkwin2qoi.png) 在输入了这些命令之后,它会执行执行一段时间: ![](/data/attachment/album/201507/28/221001wvawzpqepbchal8p.png) 在这一过程结束后,它会提供一个由boot repair的日志组成的网页网址。如果你的引导问题这样都没有修复,你就可以去社区或是发邮件给开发团队并提交该网址作为参考。很酷!不是吗? ![](/data/attachment/album/201507/28/221003owpwv5y7m2mx9ynz.png) 在boot repair成功完成后,关闭你的电脑,移除USB并再次引导。我这就能成功的引导了,但是在Grub画面上会多出额外的两行。相比于看到系统能够再次正常引导的喜悦这些对我来说并不重要。 ![](/data/attachment/album/201507/28/221005dacra8cw5imm33aq.jpg) ### 对你有效吗? 这就是我修复**Elementary OS Freya中的minimal BASH like line editing is supported Grub 错误**的方法。怎么样?是否对你也有效呢?请自由的在下方的评论区提出你的问题和建议。 --- via: <http://itsfoss.com/fix-minimal-bash-line-editing-supported-grub-error-linux/> 作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[martin2011qi](https://github.com/martin2011qi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,910
LINUX 101: 让你的 SHELL 更强大
http://www.linuxvoice.com/linux-101-power-up-your-shell-8/
2015-07-29T08:00:00
[ "命令行", "shell" ]
https://linux.cn/article-5910-1.html
> > 在我们的关于 shell 基础的指导下, 得到一个更灵活,功能更强大且多彩的命令行界面 > > > **为何要这样做?** * 使得在 shell 提示符下过得更轻松,高效 * 在失去连接后恢复先前的会话 * Stop pushing around that fiddly rodent! ![bash1](/data/attachment/album/201507/29/000326wwpxmtpvpnzq9ddz.png) 这是我的命令行提示符的设置。对于这个小的终端窗口来说,这或许有些长。但你可以根据你的喜好来调整它。 作为一个 Linux 用户, 你可能熟悉 shell (又名为命令行)。 或许你需要时不时的打开终端来完成那些不能在 GUI 下处理的必要任务,抑或是因为你处在一个将窗口铺满桌面的环境中,而 shell 是你与你的 linux 机器交互的主要方式。 在上面那些情况下,你可能正在使用你所使用的发行版本自带的 Bash 配置。 尽管对于大多数的任务而言,它足够好了,但它可以更加强大。 在本教程中,我们将向你展示如何使得你的 shell 提供更多有用信息、更加实用且更适合工作。 我们将对提示符进行自定义,让它比默认情况下提供更好的反馈,并向你展示如何使用炫酷的 `tmux` 工具来管理会话并同时运行多个程序。 并且,为了让眼睛舒服一点,我们还将关注配色方案。那么,进击吧,少女! ### 让提示符更美妙 大多数的发行版本配置有一个非常简单的提示符,它们大多向你展示了一些基本信息, 但提示符可以为你提供更多的内容。例如,在 Debian 7 下,默认的提示符是这样的: ``` mike@somebox:~$ ``` 上面的提示符展示出了用户、主机名、当前目录和账户类型符号(假如你切换到 root 账户, **$** 会变为 **#**)。 那这些信息是在哪里存储的呢? 答案是:在 **PS1** 环境变量中。 假如你键入 `echo $PS1`, 你将会在这个命令的输出字符串的最后有如下的字符: ``` \u@\h:\w$ ``` 这看起来有一些丑陋,并在瞥见它的第一眼时,你可能会开始尖叫,认为它是令人恐惧的正则表达式,但我们不打算用这些复杂的字符来煎熬我们的大脑。这不是正则表达式,这里的斜杠是转义序列,它告诉提示符进行一些特别的处理。 例如,上面的 **u** 部分,告诉提示符展示用户名, 而 w 则展示工作路径. 下面是一些你可以在提示符中用到的字符的列表: * d 当前的日期 * h 主机名 * n 代表换行的字符 * A 当前的时间 (HH:MM) * u 当前的用户 * w (小写) 整个工作路径的全称 * W (大写) 工作路径的简短名称 * $ 一个提示符号,对于 root 用户为 # 号 * ! 当前命令在 shell 历史记录中的序号 下面解释 **w** 和 **W** 选项的区别: 对于前者,你将看到你所在的工作路径的完整地址,(例如 **/usr/local/bin**),而对于后者, 它则只显示 **bin** 这一部分。 现在,我们该怎样改变提示符呢? 你需要更改 **PS1** 环境变量的内容,试试下面这个: ``` export PS1="I am \u and it is \A $" ``` 现在,你的提示符将会像下面这样: ``` I am mike and it is 11:26 $ ``` 从这个例子出发,你就可以按照你的想法来试验一下上面列出的其他转义序列。 但等等 – 当你登出后,你的这些努力都将消失,因为在你每次打开终端时,**PS1** 环境变量的值都会被重置。解决这个问题的最简单方式是打开 **.bashrc** 配置文件(在你的家目录下) 并在这个文件的最下方添加上完整的 `export` 命令。在每次你启动一个新的 shell 会话时,这个 **.bashrc** 会被 `Bash` 读取, 所以你的加强的提示符就可以一直出现。你还可以使用额外的颜色来装扮提示符。刚开始,这将有点棘手,因为你必须使用一些相当奇怪的转义序列,但结果是非常漂亮的。 将下面的字符添加到你的 **PS1**字符串中的某个位置,最终这将把文本变为红色: ``` \[\e[31m\] ``` 你可以将这里的 31 更改为其他的数字来获得不同的颜色: * 30 黑色 * 32 绿色 * 33 黄色 * 34 蓝色 * 35 洋红色 * 36 青色 * 37 白色 所以,让我们使用先前看到的转义序列和颜色来创造一个提示符,以此来结束这一小节的内容。深吸一口气,弯曲你的手指,然后键入下面这只“野兽”: ``` export PS1="(\!) \[\e[31m\] \[\A\] \[\e[32m\]\u@\h \[\e[34m\]\w \[\e[30m\]$" ``` 上面的命令提供了一个 Bash 命令历史序号、当前的时间、彩色的用户或主机名组合、以及工作路径。假如你“野心勃勃”,利用一些惊人的组合,你还可以更改提示符的背景色和前景色。非常有用的 Arch wiki 有一个关于颜色代码的完整列表:<http://tinyurl.com/3gvz4ec>。 > > **Shell 精要** > > > 假如你是一个彻底的 Linux 新手并第一次阅读这份杂志,或许你会发觉阅读这些教程有些吃力。 所以这里有一些基础知识来让你熟悉一些 shell。 通常在你的菜单中, shell 指的是 Terminal、 XTerm 或 Konsole, 当你启动它后, 最为实用的命令有这些: > > > **ls** (列出文件名); **cp one.txt two.txt** (复制文件); **rm file.txt** (移除文件); **mv old.txt new.txt** (移动或重命名文件); > > > **cd /some/directory** (改变目录); **cd ..** (回到上级目录); **./program** (在当前目录下运行一个程序); **ls > list.txt** (重定向输出到一个文件)。 > > > 几乎每个命令都有一个手册页用来解释其选项(例如 **man ls** – 按 Q 来退出)。在那里,你可以知晓命令的选项,这样你就知道 **ls -la** 展示一个详细的列表,其中也列出了隐藏文件, 并且在键入一个文件或目录的名字的一部分后, 可以使用 Tab 键来自动补全。 > > > ### Tmux: 针对 shell 的窗口管理器 在文本模式的环境中使用一个窗口管理器 – 这听起来有点不可思议, 是吧? 然而,你应该记得当 Web 浏览器第一次实现分页浏览的时候吧? 在当时, 这是在可用性上的一个重大进步,它减少了桌面任务栏的杂乱无章和繁多的窗口列表。 对于你的浏览器来说,你只需要一个按钮便可以在浏览器中切换到你打开的每个单独网站, 而不是针对每个网站都有一个任务栏或导航图标。 这个功能非常有意义。 若有时你同时运行着几个虚拟终端,你便会遇到相似的情况; 在这些终端之间跳转,或每次在任务栏或窗口列表中找到你所需要的那一个终端,都可能会让你觉得麻烦。 拥有一个文本模式的窗口管理器不仅可以让你像在同一个终端窗口中运行多个 shell 会话,而且你甚至还可以将这些窗口排列在一起。 另外,这样还有另一个好处:可以将这些窗口进行分离和重新连接。想要看看这是如何运行的最好方式是自己尝试一下。在一个终端窗口中,输入 `screen` (在大多数发行版本中,它已经默认安装了或者可以在软件包仓库中找到)。 某些欢迎的文字将会出现 – 只需敲击 Enter 键这些文字就会消失。 现在运行一个交互式的文本模式的程序,例如 `nano`, 并关闭这个终端窗口。 在一个正常的 shell 对话中, 关闭窗口将会终止所有在该终端中运行的进程 – 所以刚才的 Nano 编辑对话也就被终止了, 但对于 screen 来说,并不是这样的。打开一个新的终端并输入如下命令: ``` screen -r ``` 瞧,你刚开打开的 Nano 会话又回来了! 当刚才你运行 **screen** 时, 它会创建了一个新的独立的 shell 会话, 它不与某个特定的终端窗口绑定在一起,所以可以在后面被分离并重新连接(即 **-r** 选项)。 当你正使用 SSH 去连接另一台机器并做着某些工作时, 但并不想因为一个脆弱的连接而影响你的进度,这个方法尤其有用。假如你在一个 **screen** 会话中做着某些工作,并且你的连接突然中断了(或者你的笔记本没电了,又或者你的电脑报废了——不是这么悲催吧),你只需重新连接或给电脑充电或重新买一台电脑,接着运行 **screen -r** 来重新连接到远程的电脑,并在刚才掉线的地方接着开始。 现在,我们都一直在讨论 GNU 的 **screen**,但这个小节的标题提到的是 tmux。 实质上, **tmux** (terminal multiplexer) 就像是 **screen** 的一个进阶版本,带有许多有用的额外功能,所以现在我们开始关注 tmux。 某些发行版本默认包含了 **tmux**; 在其他的发行版本上,通常只需要一个 **apt-get、 yum install** 或 **pacman -S** 命令便可以安装它。 一旦你安装了它过后,键入 **tmux** 来启动它。接着你将注意到,在终端窗口的底部有一条绿色的信息栏,它非常像传统的窗口管理器中的任务栏: 上面显示着一个运行着的程序的列表、机器的主机名、当前时间和日期。 现在运行一个程序,同样以 Nano 为例, 敲击 Ctrl+B 后接着按 C 键, 这将在 tmux 会话中创建一个新的窗口,你便可以在终端的底部的任务栏中看到如下的信息: ``` 0:nano- 1:bash* ``` 每一个窗口都有一个数字,当前呈现的程序被一个星号所标记。 Ctrl+B 是与 tmux 交互的标准方式, 所以若你敲击这个按键组合并带上一个窗口序号, 那么就会切换到对应的那个窗口。你也可以使用 Ctrl+B 再加上 N 或 P 来分别切换到下一个或上一个窗口 – 或者使用 Ctrl+B 加上 L 来在最近使用的两个窗口之间来进行切换(有点类似于桌面中的经典的 Alt+Tab 组合键的效果)。 若需要知道窗口列表,使用 Ctrl+B 再加上 W。 目前为止,一切都还好:现在你可以在一个单独的终端窗口中运行多个程序,避免混乱(尤其是当你经常与同一个远程主机保持多个 SSH 连接时)。 当想同时看两个程序又该怎么办呢? 针对这种情况, 可以使用 tmux 中的窗格。 敲击 Ctrl+B 再加上 % , 则当前窗口将分为两个部分:一个在左一个在右。你可以使用 Ctrl+B 再加上 O 来在这两个部分之间切换。 这尤其在你想同时看两个东西时非常实用, – 例如一个窗格看指导手册,另一个窗格里用编辑器看一个配置文件。 有时,你想对一个单独的窗格进行缩放,而这需要一定的技巧。 首先你需要敲击 Ctrl+B 再加上一个 :(冒号),这将使得位于底部的 tmux 栏变为深橙色。 现在,你进入了命令模式,在这里你可以输入命令来操作 tmux。 输入 **resize-pane -R** 来使当前窗格向右移动一个字符的间距, 或使用 **-L** 来向左移动。 对于一个简单的操作,这些命令似乎有些长,但请注意,在 tmux 的命令模式(前面提到的一个分号开始的模式)下,可以使用 Tab 键来补全命令。 另外需要提及的是, **tmux** 同样也有一个命令历史记录,所以若你想重复刚才的缩放操作,可以先敲击 Ctrl+B 再跟上一个分号,并使用向上的箭头来取回刚才输入的命令。 最后,让我们看一下分离和重新连接 - 即我们刚才介绍的 screen 的特色功能。 在 tmux 中,敲击 Ctrl+B 再加上 D 来从当前的终端窗口中分离当前的 tmux 会话。这使得这个会话的一切工作都在后台中运行、使用 `tmux a` 可以再重新连接到刚才的会话。但若你同时有多个 tmux 会话在运行时,又该怎么办呢? 我们可以使用下面的命令来列出它们: ``` tmux ls ``` 这个命令将为每个会话分配一个序号; 假如你想重新连接到会话 1, 可以使用 `tmux a -t 1`. tmux 是可以高度定制的,你可以自定义按键绑定并更改配色方案, 所以一旦你适应了它的主要功能,请钻研指导手册以了解更多的内容。 ![tmux](/data/attachment/album/201507/29/000335nb3m5bfx778bmh3s.jpg) 上图中, tmux 开启了两个窗格: 左边是 Vim 正在编辑一个配置文件,而右边则展示着指导手册页。 > > **Zsh: 另一个 shell** > > > 选择是好的,但标准同样重要。 你要知道几乎每个主流的 Linux 发行版本都默认使用 Bash shell – 尽管还存在其他的 shell。 Bash 为你提供了一个 shell 能够给你提供的几乎任何功能,包括命令历史记录,文件名补全和许多脚本编程的能力。它成熟、可靠并文档丰富 – 但它不是你唯一的选择。 > > > 许多高级用户热衷于 Zsh, 即 Z shell。 这是 Bash 的一个替代品并提供了 Bash 的几乎所有功能,另外还提供了一些额外的功能。 例如, 在 Zsh 中,你输入 **ls** ,并敲击 Tab 键可以得到 **ls** 可用的各种不同选项的一个大致描述。 而不需要再打开 man page 了! > > > Zsh 还支持其他强大的自动补全功能: 例如,输入 **cd /u/lo/bi** 再敲击 Tab 键, 则完整的路径名 **/usr/local/bin** 就会出现(这里假设没有其他的路径包含 **u**, **lo** 和 **bi** 等字符)。 或者只输入 **cd** 再跟上 Tab 键,则你将看到着色后的路径名的列表 – 这比 Bash 给出的简单的结果好看得多。 > > > Zsh 在大多数的主要发行版本上都可以得到了; 安装它后并输入 **zsh** 便可启动它。 要将你的默认 shell 从 Bash 改为 Zsh, 可以使用 **chsh** 命令。 若需了解更多的信息,请访问 [www.zsh.org](http://www.zsh.org/)。 > > > ### “未来”的终端 你或许会好奇为什么包含你的命令行提示符的应用被叫做终端。 这需要追溯到 Unix 的早期, 那时人们一般工作在一个多用户的机器上,这个巨大的电脑主机将占据一座建筑中的一个房间, 人们通过某些线路,使用屏幕和键盘来连接到这个主机, 这些终端机通常被称为“哑终端”, 因为它们不能靠自己做任何重要的执行任务 – 它们只展示通过线路从主机传来的信息,并输送回从键盘的敲击中得到的输入信息。 今天,我们在自己的机器上执行几乎所有的实际操作,所以我们的电脑不是传统意义下的终端,这就是为什么诸如 **XTerm**、 Gnome Terminal、 Konsole 等程序被称为“终端模拟器” 的原因 – 他们提供了同昔日的物理终端一样的功能。事实上,在许多方面它们并没有改变多少。诚然,现在我们有了反锯齿字体,更好的颜色和点击网址的能力,但总的来说,几十年来我们一直以同样的方式在工作。 所以某些程序员正尝试改变这个状况。 **Terminology** (<http://tinyurl.com/osopjv9>), 它来自于超级时髦的 Enlightenment 窗口管理器背后的团队,旨在让终端步入到 21 世纪,例如带有在线媒体显示功能。你可以在一个充满图片的目录里输入 **ls** 命令,便可以看到它们的缩略图,或甚至可以直接在你的终端里播放视频。 这使得一个终端有点类似于一个文件管理器,意味着你可以快速地检查媒体文件的内容而不必用另一个应用来打开它们。 接着还有 Xiki ([www.xiki.org](http://www.xiki.org/)),它自身的描述为“命令的革新”。它就像是一个传统的 shell、一个 GUI 和一个 wiki 之间的过渡;你可以在任何地方输入命令,并在后面将它们的输出存储为笔记以作为参考,并可以创建非常强大的自定义命令。用几句话是很能描述它的,所以作者们已经创作了一个视频来展示它的潜力是多么的巨大(请看 **Xiki** 网站的截屏视频部分)。 并且 Xiki 绝不是那种在几个月之内就消亡的昙花一现的项目,作者们成功地进行了一次 Kickstarter 众筹,在七月底已募集到超过 $84,000。 是的,你没有看错 – $84K 来支持一个终端模拟器。这可能是最不寻常的集资活动了,因为某些疯狂的家伙已经决定开始创办它们自己的 Linux 杂志 ...... ### 下一代终端 许多命令行和基于文本的程序在功能上与它们的 GUI 程序是相同的,并且常常更加快速和高效。我们的推荐有: **Irssi** (IRC 客户端); **Mutt** (mail 客户端); **rTorrent** (BitTorrent); **Ranger** (文件管理器); **htop** (进程监视器)。 若给定在终端的限制下来进行 Web 浏览, Elinks 确实做的很好,并且对于阅读那些以文字为主的网站例如 Wikipedia 来说。它非常实用。 > > **微调配色方案** > > > 在《Linux Voice》杂志社中,我们并不迷恋那些养眼的东西,但当你每天花费几个小时盯着屏幕看东西时,我们确实认识到美学的重要性。我们中的许多人都喜欢调整我们的桌面和窗口管理器来达到完美的效果,调整阴影效果、摆弄不同的配色方案,直到我们 100% 的满意(然后出于习惯,摆弄更多的东西)。 > > > 但我们倾向于忽视终端窗口,它理应也获得我们的喜爱,并且在 <http://ciembor.github.io/4bit> 你将看到一个极其棒的配色方案设计器,对于所有受欢迎的终端模拟器(**XTerm, Gnome Terminal, Konsole 和 Xfce4 Terminal 等都是支持的应用。**),它可以输出其设定。移动滑块直到你看到配色方案最佳, 然后点击位于该页面右上角的 `得到方案` 按钮。 > > > 相似的,假如你在一个文本编辑器,如 Vim 或 Emacs 上花费了很多的时间,使用一个精心设计的调色板也是非常值得的。 **Solarized** <http://ethanschoonover.com/solarized> 是一个卓越的方案,它不仅漂亮,而且因追求最大的可用性而设计,在其背后有着大量的研究和测试。 > > > --- via: <http://www.linuxvoice.com/linux-101-power-up-your-shell-8/> 作者:[Ben Everard](http://www.linuxvoice.com/author/ben_everard/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
500
Internal Server Error
null
5,915
如何配置一个 Docker Swarm 原生集群
http://linoxide.com/linux-how-to/configure-swarm-clustering-docker/
2015-07-29T14:30:00
[ "Docker", "Swarm", "集群" ]
/article-5915-1.html
嗨,大家好。今天我们来学一学Swarm相关的内容吧,我们将学习通过Swarm来创建Docker原生集群。[Docker Swarm](https://docs.docker.com/swarm/)是用于Docker的原生集群项目,它可以将一个Docker主机池转换成单个的虚拟主机。Swarm工作于标准的Docker API,所以任何可以和Docker守护进程通信的工具都可以使用Swarm来透明地伸缩到多个主机上。就像其它Docker项目一样,Swarm遵循“内置电池,并可拆卸”的原则(LCTT 译注:batteries included,内置电池原来是 Python 圈里面对 Python 的一种赞誉,指自给自足,无需外求的丰富环境;but removable,并可拆卸应该指的是非强制耦合)。它附带有一个开箱即用的简单的后端调度程序,而且作为初始开发套件,也为其开发了一个可插拔不同后端的API。其目标在于为一些简单的使用情况提供一个平滑的、开箱即用的体验,并且它允许切换为更强大的后端,如Mesos,以用于大规模生产环境部署。Swarm配置和使用极其简单。 ![](/data/attachment/album/201507/29/142715rlz7a8o66idbk19i.png) 这里给大家提供Swarm 0.2开箱的即用一些特性。 1. Swarm 0.2.0大约85%与Docker引擎兼容。 2. 它支持资源管理。 3. 它具有一些带有限制和类同功能的高级调度特性。 4. 它支持多个发现后端(hubs,consul,etcd,zookeeper) 5. 它使用TLS加密方法进行安全通信和验证。 那么,我们来看一看Swarm的一些相当简单而简用的使用步骤吧。 ### 1. 运行Swarm的先决条件 我们必须在所有节点安装Docker 1.4.0或更高版本。虽然各个节点的IP地址不需要要公共地址,但是Swarm管理器必须可以通过网络访问各个节点。 注意:Swarm当前还处于beta版本,因此功能特性等还有可能发生改变,我们不推荐你在生产环境中使用。 ### 2. 创建Swarm集群 现在,我们将通过运行下面的命令来创建Swarm集群。各个节点都将运行一个swarm节点代理,该代理会注册、监控相关的Docker守护进程,并更新发现后端获取的节点状态。下面的命令会返回一个唯一的集群ID标记,在启动节点上的Swarm代理时会用到它。 在集群管理器上运行: ``` # docker run swarm create ``` ![Creating Swarm Cluster](/data/attachment/album/201507/29/143122edx9hgn1h5wwccw1.png) ### 3. 启动各个节点上的Docker守护进程 我们需要登录进我们将用来创建集群的每个节点,并在其上使用-H标记启动Docker守护进程。它会保证Swarm管理器能够通过TCP访问到各个节点上的Docker远程API。要启动Docker守护进程,我们需要在各个节点内部运行以下命令。 ``` # docker -H tcp://0.0.0.0:2375 -d ``` ![Starting Docker Daemon](/data/attachment/album/201507/29/143122o44gizcpqpiefzgy.png) ### 4. 添加节点 在启用Docker守护进程后,我们需要添加Swarm节点到发现服务,我们必须确保节点IP可从Swarm管理器访问到。要完成该操作,我们需要在各个节点上运行以下命令。 ``` # docker run -d swarm join --addr=<node_ip>:2375 token://<cluster_id> ``` ![Adding Nodes to Cluster](/data/attachment/album/201507/29/143045z0z2kq0zp3ybb6p0.png) **注意**:我们需要用步骤2中获取到的节点IP地址和集群ID替换这里的<node\_ip>和<cluster\_id>。 ### 5. 开启Swarm管理器 现在,由于我们已经获得了连接到集群的节点,我们将启动swarm管理器。我们需要在集群管理器中运行以下命令。 ``` # docker run -d -p <swarm_port>:2375 swarm manage token://<cluster_id> ``` ![Starting Swarm Manager](/data/attachment/album/201507/29/143046u4xc46hocc6zhzux.png) ### 6. 检查配置 一旦管理运行起来后,我们可以通过运行以下命令来检查配置。 ``` # docker -H tcp://<manager_ip:manager_port> info ``` ![Accessing Swarm Clusters](/data/attachment/album/201507/29/143046z7oqz2778w73037w.png) **注意**:我们需要替换<manager\_ip:manager\_port>为运行swarm管理器的主机的IP地址和端口。 ### 7. 使用docker CLI来访问节点 在一切都像上面说得那样完美地完成后,这一部分是Docker Swarm最为重要的部分。我们可以使用Docker CLI来访问节点,并在节点上运行容器。 ``` # docker -H tcp://<manager_ip:manager_port> info # docker -H tcp://<manager_ip:manager_port> run ... ``` ### 8. 监听集群中的节点 我们可以使用swarm list命令来获取所有运行中节点的列表。 ``` # docker run --rm swarm list token://<cluster_id> ``` ![Listing Swarm Nodes](/data/attachment/album/201507/29/143047b3p737pjb33u35ts.png) ### 尾声 Swarm真的是一个有着相当不错的功能的docker,它可以用于创建和管理集群。它相当易于配置和使用,当我们在它上面使用限制器和类同器时它更为出色。高级调度程序是一个相当不错的特性,它可以应用过滤器来通过端口、标签、健康状况来排除节点,并且它使用策略来挑选最佳节点。那么,如果你有任何问题、评论、反馈,请在下面的评论框中写出来吧,好让我们知道哪些材料需要补充或改进。谢谢大家了!尽情享受吧 :-) --- via: <http://linoxide.com/linux-how-to/configure-swarm-clustering-docker/> 作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/configure-swarm-clustering-docker/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c4550>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,916
在 Linux 命令行中使用和执行 PHP 代码(二):12 个 PHP 交互性 shell 的用法
http://www.tecmint.com/execute-php-codes-functions-in-linux-commandline/
2015-07-30T08:51:00
[ "PHP" ]
https://linux.cn/article-5916-1.html
在上一篇文章“[在 Linux 命令行中使用和执行 PHP 代码(一)](/article-5906-1.html)”中,我同时着重讨论了直接在Linux命令行中运行PHP代码以及在Linux终端中执行PHP脚本文件。 ![Run PHP Codes in Linux Commandline](/data/attachment/album/201507/29/145425ng36dkf2r7kfgdft.jpg) 本文旨在让你了解一些相当不错的Linux终端中的PHP交互性 shell 的用法特性。 让我们先在PHP 的交互shell中来对`php.ini`设置进行一些配置吧。 **6. 设置PHP命令行提示符** 要设置PHP命令行提示,你需要在Linux终端中使用下面的php -a(启用PHP交互模式)命令开启一个PHP交互shell。 ``` $ php -a ``` 然后,设置任何东西(比如说Hi Tecmint ::)作为PHP交互shell的命令提示符,操作如下: ``` php > #cli.prompt=Hi Tecmint :: ``` ![Enable PHP Interactive Shell](/data/attachment/album/201507/29/145425a7b75iz7h2kd57ha.png) *启用PHP交互Shell* 同时,你也可以设置当前时间作为你的命令行提示符,操作如下: ``` php > #cli.prompt=`echo date('H:m:s');` > 22:15:43 > ``` **7. 每次输出一屏** 在我们上一篇文章中,我们已经在原始命令中通过管道在很多地方使用了`less`命令。通过该操作,我们可以在那些不能一屏全部输出的地方获得分屏显示。但是,我们可以通过配置php.ini文件,设置pager的值为less以每次输出一屏,操作如下: ``` $ php -a php > #cli.pager=less ``` ![Fix PHP Screen Output](/data/attachment/album/201507/29/145425w3b31atz39atahhs.png) *限制PHP屏幕输出* 这样,下次当你运行一个命令(比如说条调试器`phpinfo();`)的时候,而该命令的输出内容又太过庞大而不能固定在一屏,它就会自动产生适合你当前屏幕的输出结果。 ``` php > phpinfo(); ``` ![PHP Info Output](/data/attachment/album/201507/29/145426oi5j56epx7xiiixq.png) *PHP信息输出* **8. 建议和TAB补全** PHP shell足够智能,它可以显示给你建议和进行TAB补全,你可以通过TAB键来使用该功能。如果对于你想要用TAB补全的字符串而言有多个选项,那么你需要使用两次TAB键来完成,其它情况则使用一次即可。 如果有超过一个的可能性,请使用两次TAB键。 ``` php > ZIP [TAB] [TAB] ``` 如果只有一个可能性,只要使用一次TAB键。 ``` php > #cli.pager [TAB] ``` 你可以一直按TAB键来获得建议的补全,直到该值满足要求。所有的行为都将记录到`~/.php-history`文件。 要检查你的PHP交互shell活动日志,你可以执行: ``` $ nano ~/.php_history | less ``` ![Check PHP Interactive Shell Logs](/data/attachment/album/201507/29/145426qnv7utf9rt6ntdmd.png) *检查PHP交互Shell日志* **9. 你可以在PHP交互shell中使用颜色,你所需要知道的仅仅是颜色代码。** 使用echo来打印各种颜色的输出结果,类似这样: ``` php > echo "color_code1 TEXT second_color_code"; ``` 具体来说是: ``` php > echo "\033[0;31m Hi Tecmint \x1B[0m"; ``` ![Enable Colors in PHP Shell](/data/attachment/album/201507/29/145427nklaq0vufsvqbavz.png) *在PHP Shell中启用彩色* 到目前为止,我们已经看到,按回车键意味着执行命令,然而PHP Shell中各个命令结尾的分号是必须的。 **10. 在PHP shell中用basename()输出路径中最后一部分** PHP shell中的basename函数可以从给出的包含有到文件或目录路径的最后部分。 basename()样例#1和#2。 ``` php > echo basename("/var/www/html/wp/wp-content/plugins"); php > echo basename("www.tecmint.com/contact-us.html"); ``` 上述两个样例将输出: ``` plugins contact-us.html ``` ![Print Base Name in PHP](/data/attachment/album/201507/29/145427czng55oue5u5xdf9.png) *在PHP中打印基本名称* **11. 你可以使用PHP交互shell在你的桌面创建文件(比如说test1.txt),就像下面这么简单** ``` php> touch("/home/avi/Desktop/test1.txt"); ``` 我们已经见识了PHP交互shell在数学运算中有多优秀,这里还有更多一些例子会令你吃惊。 **12. 使用PHP交互shell打印比如像tecmint.com这样的字符串的长度** strlen函数用于获取指定字符串的长度。 ``` php > echo strlen("tecmint.com"); ``` ![Print Length String in PHP](/data/attachment/album/201507/29/145428c6seizv65btil3jt.png) *在PHP中打印字符串长度* **13. PHP交互shell可以对数组排序,是的,你没听错** 声明变量a,并将其值设置为array(7,9,2,5,10)。 ``` php > $a=array(7,9,2,5,10); ``` 对数组中的数字进行排序。 ``` php > sort($a); ``` 以排序后的顺序打印数组中的数字,同时打印序号,第一个为[0]。 ``` php > print_r($a); Array ( [0] => 2 [1] => 5 [2] => 7 [3] => 9 [4] => 10 ) ``` ![Sort Arrays in PHP](/data/attachment/album/201507/29/145428ixvssx6seg4f63qk.png) *在PHP中对数组排序* **14. 在PHP交互Shell中获取π的值** ``` php > echo pi(); 3.1415926535898 ``` **15. 打印某个数比如32的平方根** ``` php > echo sqrt(150); 12.247448713916 ``` **16. 从0-10的范围内挑选一个随机数** ``` php > echo rand(0, 10); ``` ![Get Random Number in PHP](/data/attachment/album/201507/29/145429dxtvv62r6sotrj4h.png) *在PHP中获取随机数* **17. 获取某个指定字符串的md5校验和sha1校验,例如,让我们在PHP Shell中检查某个字符串(比如说avi)的md5校验和sha1校验,并交叉校验bash shell生成的md5校验和sha1校验的结果。** ``` php > echo md5(avi); 3fca379b3f0e322b7b7967bfcfb948ad php > echo sha1(avi); 8f920f22884d6fea9df883843c4a8095a2e5ac6f ``` --- ``` $ echo -n avi | md5sum 3fca379b3f0e322b7b7967bfcfb948ad - $ echo -n avi | sha1sum 8f920f22884d6fea9df883843c4a8095a2e5ac6f - ``` ![Check md5sum and sha1sum in PHP](/data/attachment/album/201507/29/145429ja4cbhrprpwazazd.png) *在PHP中检查md5校验和sha1校验* 这里只是PHP Shell中所能获取的功能和PHP Shell的交互特性的惊鸿一瞥,这些就是到现在为止我所讨论的一切。保持连线,在评论中为我们提供你有价值的反馈吧。为我们点赞并分享,帮助我们扩散哦。 --- via: <http://www.tecmint.com/execute-php-codes-functions-in-linux-commandline/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,926
systemctl 命令完全指南
http://www.tecmint.com/manage-services-using-systemd-and-systemctl-in-linux/
2015-07-31T08:00:00
[ "systemd", "systemctl" ]
https://linux.cn/article-5926-1.html
Systemctl是一个systemd工具,主要负责控制systemd系统和服务管理器。 Systemd是一个系统管理守护进程、工具和库的集合,用于取代System V初始进程。Systemd的功能是用于集中管理和配置类UNIX系统。 在Linux生态系统中,Systemd被部署到了大多数的标准Linux发行版中,只有为数不多的几个发行版尚未部署。Systemd通常是所有其它守护进程的父进程,但并非总是如此。 ![Manage Linux Services Using Systemctl](/data/attachment/album/201507/30/210221zg6czg8yogegegay.jpg) *使用Systemctl管理Linux服务* 本文旨在阐明在运行systemd的系统上“如何控制系统和服务”。 ### Systemd初体验和Systemctl基础 #### 1. 首先检查你的系统中是否安装有systemd并确定当前安装的版本 ``` # systemctl --version systemd 215 +PAM +AUDIT +SELINUX +IMA +SYSVINIT +LIBCRYPTSETUP +GCRYPT +ACL +XZ -SECCOMP -APPARMOR ``` 上例中很清楚地表明,我们安装了215版本的systemd。 #### 2. 检查systemd和systemctl的二进制文件和库文件的安装位置 ``` # whereis systemd systemd: /usr/lib/systemd /etc/systemd /usr/share/systemd /usr/share/man/man1/systemd.1.gz # whereis systemctl systemctl: /usr/bin/systemctl /usr/share/man/man1/systemctl.1.gz ``` #### 3. 检查systemd是否运行 ``` # ps -eaf | grep [s]ystemd root 1 0 0 16:27 ? 00:00:00 /usr/lib/systemd/systemd --switched-root --system --deserialize 23 root 444 1 0 16:27 ? 00:00:00 /usr/lib/systemd/systemd-journald root 469 1 0 16:27 ? 00:00:00 /usr/lib/systemd/systemd-udevd root 555 1 0 16:27 ? 00:00:00 /usr/lib/systemd/systemd-logind dbus 556 1 0 16:27 ? 00:00:00 /bin/dbus-daemon --system --address=systemd: --nofork --nopidfile --systemd-activation ``` **注意**:systemd是作为父进程(PID=1)运行的。在上面带(-e)参数的ps命令输出中,选择所有进程,(-a)选择除会话前导外的所有进程,并使用(-f)参数输出完整格式列表(即 -eaf)。 也请注意上例中后随的方括号和例子中剩余部分。方括号表达式是grep的字符类表达式的一部分。 #### 4. 分析systemd启动进程 ``` # systemd-analyze Startup finished in 487ms (kernel) + 2.776s (initrd) + 20.229s (userspace) = 23.493s ``` #### 5. 分析启动时各个进程花费的时间 ``` # systemd-analyze blame 8.565s mariadb.service 7.991s webmin.service 6.095s postfix.service 4.311s httpd.service 3.926s firewalld.service 3.780s kdump.service 3.238s tuned.service 1.712s network.service 1.394s lvm2-monitor.service 1.126s systemd-logind.service .... ``` #### 6. 分析启动时的关键链 ``` # systemd-analyze critical-chain The time after the unit is active or started is printed after the "@" character. The time the unit takes to start is printed after the "+" character. multi-user.target @20.222s └─mariadb.service @11.657s +8.565s └─network.target @11.168s └─network.service @9.456s +1.712s └─NetworkManager.service @8.858s +596ms └─firewalld.service @4.931s +3.926s └─basic.target @4.916s └─sockets.target @4.916s └─dbus.socket @4.916s └─sysinit.target @4.905s └─systemd-update-utmp.service @4.864s +39ms └─auditd.service @4.563s +301ms └─systemd-tmpfiles-setup.service @4.485s +69ms └─rhel-import-state.service @4.342s +142ms └─local-fs.target @4.324s └─boot.mount @4.286s +31ms └─systemd-fsck@dev-disk-by\x2duuid-79f594ad\x2da332\x2d4730\x2dbb5f\x2d85d19608096 └─dev-disk-by\x2duuid-79f594ad\x2da332\x2d4730\x2dbb5f\x2d85d196080964.device @4 ``` **重要**:Systemctl接受服务(.service),挂载点(.mount),套接口(.socket)和设备(.device)作为单元。 #### 7. 列出所有可用单元 ``` # systemctl list-unit-files UNIT FILE STATE proc-sys-fs-binfmt_misc.automount static dev-hugepages.mount static dev-mqueue.mount static proc-sys-fs-binfmt_misc.mount static sys-fs-fuse-connections.mount static sys-kernel-config.mount static sys-kernel-debug.mount static tmp.mount disabled brandbot.path disabled ..... ``` #### 8. 列出所有运行中单元 ``` # systemctl list-units UNIT LOAD ACTIVE SUB DESCRIPTION proc-sys-fs-binfmt_misc.automount loaded active waiting Arbitrary Executable File Formats File Syste sys-devices-pc...0-1:0:0:0-block-sr0.device loaded active plugged VBOX_CD-ROM sys-devices-pc...:00:03.0-net-enp0s3.device loaded active plugged PRO/1000 MT Desktop Adapter sys-devices-pc...00:05.0-sound-card0.device loaded active plugged 82801AA AC'97 Audio Controller sys-devices-pc...:0:0-block-sda-sda1.device loaded active plugged VBOX_HARDDISK sys-devices-pc...:0:0-block-sda-sda2.device loaded active plugged LVM PV Qzyo3l-qYaL-uRUa-Cjuk-pljo-qKtX-VgBQ8 sys-devices-pc...0-2:0:0:0-block-sda.device loaded active plugged VBOX_HARDDISK sys-devices-pl...erial8250-tty-ttyS0.device loaded active plugged /sys/devices/platform/serial8250/tty/ttyS0 sys-devices-pl...erial8250-tty-ttyS1.device loaded active plugged /sys/devices/platform/serial8250/tty/ttyS1 sys-devices-pl...erial8250-tty-ttyS2.device loaded active plugged /sys/devices/platform/serial8250/tty/ttyS2 sys-devices-pl...erial8250-tty-ttyS3.device loaded active plugged /sys/devices/platform/serial8250/tty/ttyS3 sys-devices-virtual-block-dm\x2d0.device loaded active plugged /sys/devices/virtual/block/dm-0 sys-devices-virtual-block-dm\x2d1.device loaded active plugged /sys/devices/virtual/block/dm-1 sys-module-configfs.device loaded active plugged /sys/module/configfs ... ``` #### 9. 列出所有失败单元 ``` # systemctl --failed UNIT LOAD ACTIVE SUB DESCRIPTION kdump.service loaded failed failed Crash recovery kernel arming LOAD = Reflects whether the unit definition was properly loaded. ACTIVE = The high-level unit activation state, i.e. generalization of SUB. SUB = The low-level unit activation state, values depend on unit type. 1 loaded units listed. Pass --all to see loaded but inactive units, too. To show all installed unit files use 'systemctl list-unit-files'. ``` #### 10. 检查某个单元(如 cron.service)是否启用 ``` # systemctl is-enabled crond.service enabled ``` #### 11. 检查某个单元或服务是否运行 ``` # systemctl status firewalld.service firewalld.service - firewalld - dynamic firewall daemon Loaded: loaded (/usr/lib/systemd/system/firewalld.service; enabled) Active: active (running) since Tue 2015-04-28 16:27:55 IST; 34min ago Main PID: 549 (firewalld) CGroup: /system.slice/firewalld.service └─549 /usr/bin/python -Es /usr/sbin/firewalld --nofork --nopid Apr 28 16:27:51 tecmint systemd[1]: Starting firewalld - dynamic firewall daemon... Apr 28 16:27:55 tecmint systemd[1]: Started firewalld - dynamic firewall daemon. ``` ### 使用Systemctl控制并管理服务 #### 12. 列出所有服务(包括启用的和禁用的) ``` # systemctl list-unit-files --type=service UNIT FILE STATE arp-ethers.service disabled auditd.service enabled autovt@.service disabled blk-availability.service disabled brandbot.service static collectd.service disabled console-getty.service disabled console-shell.service disabled cpupower.service disabled crond.service enabled dbus-org.fedoraproject.FirewallD1.service enabled .... ``` #### 13. Linux中如何启动、重启、停止、重载服务以及检查服务(如 httpd.service)状态 ``` # systemctl start httpd.service # systemctl restart httpd.service # systemctl stop httpd.service # systemctl reload httpd.service # systemctl status httpd.service httpd.service - The Apache HTTP Server Loaded: loaded (/usr/lib/systemd/system/httpd.service; enabled) Active: active (running) since Tue 2015-04-28 17:21:30 IST; 6s ago Process: 2876 ExecStop=/bin/kill -WINCH ${MAINPID} (code=exited, status=0/SUCCESS) Main PID: 2881 (httpd) Status: "Processing requests..." CGroup: /system.slice/httpd.service ├─2881 /usr/sbin/httpd -DFOREGROUND ├─2884 /usr/sbin/httpd -DFOREGROUND ├─2885 /usr/sbin/httpd -DFOREGROUND ├─2886 /usr/sbin/httpd -DFOREGROUND ├─2887 /usr/sbin/httpd -DFOREGROUND └─2888 /usr/sbin/httpd -DFOREGROUND Apr 28 17:21:30 tecmint systemd[1]: Starting The Apache HTTP Server... Apr 28 17:21:30 tecmint httpd[2881]: AH00558: httpd: Could not reliably determine the server's fully q...ssage Apr 28 17:21:30 tecmint systemd[1]: Started The Apache HTTP Server. Hint: Some lines were ellipsized, use -l to show in full. ``` **注意**:当我们使用systemctl的start,restart,stop和reload命令时,我们不会从终端获取到任何输出内容,只有status命令可以打印输出。 #### 14. 如何激活服务并在启动时启用或禁用服务(即系统启动时自动启动服务) ``` # systemctl is-active httpd.service # systemctl enable httpd.service # systemctl disable httpd.service ``` #### 15. 如何屏蔽(让它不能启动)或显示服务(如 httpd.service) ``` # systemctl mask httpd.service ln -s '/dev/null' '/etc/systemd/system/httpd.service' # systemctl unmask httpd.service rm '/etc/systemd/system/httpd.service' ``` #### 16. 使用systemctl命令杀死服务 ``` # systemctl kill httpd # systemctl status httpd httpd.service - The Apache HTTP Server Loaded: loaded (/usr/lib/systemd/system/httpd.service; enabled) Active: failed (Result: exit-code) since Tue 2015-04-28 18:01:42 IST; 28min ago Main PID: 2881 (code=exited, status=0/SUCCESS) Status: "Total requests: 0; Current requests/sec: 0; Current traffic: 0 B/sec" Apr 28 17:37:29 tecmint systemd[1]: httpd.service: Got notification message from PID 2881, but recepti...bled. Apr 28 17:37:29 tecmint systemd[1]: httpd.service: Got notification message from PID 2881, but recepti...bled. Apr 28 17:37:39 tecmint systemd[1]: httpd.service: Got notification message from PID 2881, but recepti...bled. Apr 28 17:37:39 tecmint systemd[1]: httpd.service: Got notification message from PID 2881, but recepti...bled. Apr 28 17:37:49 tecmint systemd[1]: httpd.service: Got notification message from PID 2881, but recepti...bled. Apr 28 17:37:49 tecmint systemd[1]: httpd.service: Got notification message from PID 2881, but recepti...bled. Apr 28 17:37:59 tecmint systemd[1]: httpd.service: Got notification message from PID 2881, but recepti...bled. Apr 28 17:37:59 tecmint systemd[1]: httpd.service: Got notification message from PID 2881, but recepti...bled. Apr 28 18:01:42 tecmint systemd[1]: httpd.service: control process exited, code=exited status=226 Apr 28 18:01:42 tecmint systemd[1]: Unit httpd.service entered failed state. Hint: Some lines were ellipsized, use -l to show in full. ``` ### 使用Systemctl控制并管理挂载点 #### 17. 列出所有系统挂载点 ``` # systemctl list-unit-files --type=mount UNIT FILE STATE dev-hugepages.mount static dev-mqueue.mount static proc-sys-fs-binfmt_misc.mount static sys-fs-fuse-connections.mount static sys-kernel-config.mount static sys-kernel-debug.mount static tmp.mount disabled ``` #### 18. 挂载、卸载、重新挂载、重载系统挂载点并检查系统中挂载点状态 ``` # systemctl start tmp.mount # systemctl stop tmp.mount # systemctl restart tmp.mount # systemctl reload tmp.mount # systemctl status tmp.mount tmp.mount - Temporary Directory Loaded: loaded (/usr/lib/systemd/system/tmp.mount; disabled) Active: active (mounted) since Tue 2015-04-28 17:46:06 IST; 2min 48s ago Where: /tmp What: tmpfs Docs: man:hier(7) http://www.freedesktop.org/wiki/Software/systemd/APIFileSystems Process: 3908 ExecMount=/bin/mount tmpfs /tmp -t tmpfs -o mode=1777,strictatime (code=exited, status=0/SUCCESS) Apr 28 17:46:06 tecmint systemd[1]: Mounting Temporary Directory... Apr 28 17:46:06 tecmint systemd[1]: tmp.mount: Directory /tmp to mount over is not empty, mounting anyway. Apr 28 17:46:06 tecmint systemd[1]: Mounted Temporary Directory. ``` #### 19. 在启动时激活、启用或禁用挂载点(系统启动时自动挂载) ``` # systemctl is-active tmp.mount # systemctl enable tmp.mount # systemctl disable tmp.mount ``` #### 20. 在Linux中屏蔽(让它不能启用)或可见挂载点 ``` # systemctl mask tmp.mount ln -s '/dev/null' '/etc/systemd/system/tmp.mount' # systemctl unmask tmp.mount rm '/etc/systemd/system/tmp.mount' ``` ### 使用Systemctl控制并管理套接口 #### 21. 列出所有可用系统套接口 ``` # systemctl list-unit-files --type=socket UNIT FILE STATE dbus.socket static dm-event.socket enabled lvm2-lvmetad.socket enabled rsyncd.socket disabled sshd.socket disabled syslog.socket static systemd-initctl.socket static systemd-journald.socket static systemd-shutdownd.socket static systemd-udevd-control.socket static systemd-udevd-kernel.socket static 11 unit files listed. ``` #### 22. 在Linux中启动、重启、停止、重载套接口并检查其状态 ``` # systemctl start cups.socket # systemctl restart cups.socket # systemctl stop cups.socket # systemctl reload cups.socket # systemctl status cups.socket cups.socket - CUPS Printing Service Sockets Loaded: loaded (/usr/lib/systemd/system/cups.socket; enabled) Active: active (listening) since Tue 2015-04-28 18:10:59 IST; 8s ago Listen: /var/run/cups/cups.sock (Stream) Apr 28 18:10:59 tecmint systemd[1]: Starting CUPS Printing Service Sockets. Apr 28 18:10:59 tecmint systemd[1]: Listening on CUPS Printing Service Sockets. ``` #### 23. 在启动时激活套接口,并启用或禁用它(系统启动时自启动) ``` # systemctl is-active cups.socket # systemctl enable cups.socket # systemctl disable cups.socket ``` #### 24. 屏蔽(使它不能启动)或显示套接口 ``` # systemctl mask cups.socket ln -s '/dev/null' '/etc/systemd/system/cups.socket' # systemctl unmask cups.socket rm '/etc/systemd/system/cups.socket' ``` ### 服务的CPU利用率(分配额) #### 25. 获取当前某个服务的CPU分配额(如httpd) ``` # systemctl show -p CPUShares httpd.service CPUShares=1024 ``` **注意**:各个服务的默认CPU分配份额=1024,你可以增加/减少某个进程的CPU分配份额。 #### 26. 将某个服务(httpd.service)的CPU分配份额限制为2000 CPUShares/ ``` # systemctl set-property httpd.service CPUShares=2000 # systemctl show -p CPUShares httpd.service CPUShares=2000 ``` **注意**:当你为某个服务设置CPUShares,会自动创建一个以服务名命名的目录(如 httpd.service),里面包含了一个名为90-CPUShares.conf的文件,该文件含有CPUShare限制信息,你可以通过以下方式查看该文件: ``` # vi /etc/systemd/system/httpd.service.d/90-CPUShares.conf [Service] CPUShares=2000 ``` #### 27. 检查某个服务的所有配置细节 ``` # systemctl show httpd Id=httpd.service Names=httpd.service Requires=basic.target Wants=system.slice WantedBy=multi-user.target Conflicts=shutdown.target Before=shutdown.target multi-user.target After=network.target remote-fs.target nss-lookup.target systemd-journald.socket basic.target system.slice Description=The Apache HTTP Server LoadState=loaded ActiveState=active SubState=running FragmentPath=/usr/lib/systemd/system/httpd.service .... ``` #### 28. 分析某个服务(httpd)的关键链 ``` # systemd-analyze critical-chain httpd.service The time after the unit is active or started is printed after the "@" character. The time the unit takes to start is printed after the "+" character. httpd.service +142ms └─network.target @11.168s └─network.service @9.456s +1.712s └─NetworkManager.service @8.858s +596ms └─firewalld.service @4.931s +3.926s └─basic.target @4.916s └─sockets.target @4.916s └─dbus.socket @4.916s └─sysinit.target @4.905s └─systemd-update-utmp.service @4.864s +39ms └─auditd.service @4.563s +301ms └─systemd-tmpfiles-setup.service @4.485s +69ms └─rhel-import-state.service @4.342s +142ms └─local-fs.target @4.324s └─boot.mount @4.286s +31ms └─systemd-fsck@dev-disk-by\x2duuid-79f594ad\x2da332\x2d4730\x2dbb5f\x2d85d196080964.service @4.092s +149ms └─dev-disk-by\x2duuid-79f594ad\x2da332\x2d4730\x2dbb5f\x2d85d196080964.device @4.092s ``` #### 29. 获取某个服务(httpd)的依赖性列表 ``` # systemctl list-dependencies httpd.service httpd.service ├─system.slice └─basic.target ├─firewalld.service ├─microcode.service ├─rhel-autorelabel-mark.service ├─rhel-autorelabel.service ├─rhel-configure.service ├─rhel-dmesg.service ├─rhel-loadmodules.service ├─paths.target ├─slices.target │ ├─-.slice │ └─system.slice ├─sockets.target │ ├─dbus.socket .... ``` #### 30. 按等级列出控制组 ``` # systemd-cgls ├─1 /usr/lib/systemd/systemd --switched-root --system --deserialize 23 ├─user.slice │ └─user-0.slice │ └─session-1.scope │ ├─2498 sshd: root@pts/0 │ ├─2500 -bash │ ├─4521 systemd-cgls │ └─4522 systemd-cgls └─system.slice ├─httpd.service │ ├─4440 /usr/sbin/httpd -DFOREGROUND │ ├─4442 /usr/sbin/httpd -DFOREGROUND │ ├─4443 /usr/sbin/httpd -DFOREGROUND │ ├─4444 /usr/sbin/httpd -DFOREGROUND │ ├─4445 /usr/sbin/httpd -DFOREGROUND │ └─4446 /usr/sbin/httpd -DFOREGROUND ├─polkit.service │ └─721 /usr/lib/polkit-1/polkitd --no-debug .... ``` #### 31. 按CPU、内存、输入和输出列出控制组 ``` # systemd-cgtop Path Tasks %CPU Memory Input/s Output/s / 83 1.0 437.8M - - /system.slice - 0.1 - - - /system.slice/mariadb.service 2 0.1 - - - /system.slice/tuned.service 1 0.0 - - - /system.slice/httpd.service 6 0.0 - - - /system.slice/NetworkManager.service 1 - - - - /system.slice/atop.service 1 - - - - /system.slice/atopacct.service 1 - - - - /system.slice/auditd.service 1 - - - - /system.slice/crond.service 1 - - - - /system.slice/dbus.service 1 - - - - /system.slice/firewalld.service 1 - - - - /system.slice/lvm2-lvmetad.service 1 - - - - /system.slice/polkit.service 1 - - - - /system.slice/postfix.service 3 - - - - /system.slice/rsyslog.service 1 - - - - /system.slice/system-getty.slice/getty@tty1.service 1 - - - - /system.slice/systemd-journald.service 1 - - - - /system.slice/systemd-logind.service 1 - - - - /system.slice/systemd-udevd.service 1 - - - - /system.slice/webmin.service 1 - - - - /user.slice/user-0.slice/session-1.scope 3 - - - - ``` ### 控制系统运行等级 #### 32. 启动系统救援模式 ``` # systemctl rescue Broadcast message from root@tecmint on pts/0 (Wed 2015-04-29 11:31:18 IST): The system is going down to rescue mode NOW! ``` #### 33. 进入紧急模式 ``` # systemctl emergency Welcome to emergency mode! After logging in, type "journalctl -xb" to view system logs, "systemctl reboot" to reboot, "systemctl default" to try again to boot into default mode. ``` #### 34. 列出当前使用的运行等级 ``` # systemctl get-default multi-user.target ``` #### 35. 启动运行等级5,即图形模式 ``` # systemctl isolate runlevel5.target 或 # systemctl isolate graphical.target ``` #### 36. 启动运行等级3,即多用户模式(命令行) ``` # systemctl isolate runlevel3.target 或 # systemctl isolate multiuser.target ``` #### 36. 设置多用户模式或图形模式为默认运行等级 ``` # systemctl set-default runlevel3.target # systemctl set-default runlevel5.target ``` #### 37. 重启、停止、挂起、休眠系统或使系统进入混合睡眠 ``` # systemctl reboot # systemctl halt # systemctl suspend # systemctl hibernate # systemctl hybrid-sleep ``` 对于不知运行等级为何物的人,说明如下。 * Runlevel 0 : 关闭系统 * Runlevel 1 : 救援?维护模式 * Runlevel 3 : 多用户,无图形系统 * Runlevel 4 : 多用户,无图形系统 * Runlevel 5 : 多用户,图形化系统 * Runlevel 6 : 关闭并重启机器 到此为止吧。保持连线,进行评论。别忘了在下面的评论中为我们提供一些有价值的反馈哦。喜欢我们、与我们分享,求扩散。 --- via: <http://www.tecmint.com/manage-services-using-systemd-and-systemctl-in-linux/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,927
FreeBSD 和 Linux 有什么不同?
http://www.unixmen.com/comparative-introduction-freebsd-linux-users/
2015-07-31T07:20:00
[ "BSD", "许可证", "FreeBSD" ]
https://linux.cn/article-5927-1.html
![](/data/attachment/album/201507/30/222252xttfl8oz80ob0rjf.jpg) ### 简介 BSD最初从UNIX继承而来,目前,有许多的类Unix操作系统是基于BSD的。FreeBSD是使用最广泛的开源的伯克利软件发行版(即 BSD 发行版)。就像它隐含的意思一样,它是一个自由开源的类Unix操作系统,并且是公共服务器平台。FreeBSD源代码通常以宽松的BSD许可证发布。它与Linux有很多相似的地方,但我们得承认它们在很多方面仍有不同。 本文的其余部分组织如下:FreeBSD的描述在第一部分,FreeBSD和Linux的相似点在第二部分,它们的区别将在第三部分讨论,对他们功能的讨论和总结在最后一节。 ### FreeBSD描述 #### 历史 * FreeBSD的第一个版本发布于1993年,它的第一张CD-ROM是FreeBSD1.0,发行于1993年12月。接下来,FreeBSD 2.1.0在1995年发布,并且获得了所有用户的青睐。实际上许多IT公司都使用FreeBSD并且很满意,我们可以列出其中的一些:IBM、Nokia、NetApp和Juniper Network。 #### 许可证 * 关于它的许可证,FreeBSD以多种开源许可证进行发布,它的名为Kernel的最新代码以两句版BSD许可证进行了发布,给予使用和重新发布FreeBSD的绝对自由。其它的代码则以三句版或四句版BSD许可证进行发布,有些是以GPL和CDDL的许可证发布的。 (LCTT 译注:BSD 许可证与 GPL 许可证相比,相当简短,最初只有四句规则;1999年应 RMS 请求,删除了第三句,新的许可证称作“新 BSD”或三句版BSD;原来的 BSD 许可证称作“旧 BSD”、“修订的 BSD”或四句版BSD;也有一种删除了第三、第四两句的版本,称之为两句版 BSD,等价于 MIT 许可证。) #### 用户 * FreeBSD的重要特点之一就是它的用户多样性。实际上,FreeBSD可以作为邮件服务器、Web 服务器、FTP 服务器以及路由器等,您只需要在它上运行服务相关的软件即可。而且FreeBSD还支持ARM、PowerPC、MIPS、x86、x86-64架构。 ### FreeBSD和Linux的相似处 FreeBSD和Linux是两个自由开源的软件。实际上,它们的用户可以很容易的检查并修改源代码,用户拥有绝对的自由。而且,FreeBSD和Linux都是类Unix系统,它们的内核、内部组件、库程序都使用从历史上的AT&T Unix继承来的算法。FreeBSD从根基上更像Unix系统,而Linux是作为自由的类Unix系统发布的。许多工具应用都可以在FreeBSD和Linux中找到,实际上,他们几乎有同样的功能。 此外,FreeBSD能够运行大量的Linux应用。它可以安装一个Linux的兼容层,这个兼容层可以在编译FreeBSD时加入AAC Compact Linux得到,或通过下载已编译了Linux兼容层的FreeBSD系统,其中会包括兼容程序:aac\_linux.ko。不同于FreeBSD的是,Linux无法运行FreeBSD的软件。 最后,我们注意到虽然二者有同样的目标,但二者还是有一些不同之处,我们在下一节中列出。 ### FreeBSD和Linux的区别 目前对于大多数用户来说并没有一个选择FreeBSD还是Linux的明确的准则。因为他们有着很多同样的应用程序,因为他们都被称作类Unix系统。 在这一章,我们将列出这两种系统的一些重要的不同之处。 #### 许可证 * 两个系统的区别首先在于它们的许可证。Linux以GPL许可证发行,它为用户提供阅读、发行和修改源代码的自由,GPL许可证帮助用户避免仅仅发行二进制。而FreeBSD以BSD许可证发布,BSD许可证比GPL更宽容,因为其衍生著作不需要仍以该许可证发布。这意味着任何用户能够使用、发布、修改代码,并且不需要维持之前的许可证。 * 您可以依据您的需求,在两种许可证中选择一种。首先是BSD许可证,由于其特殊的条款,它更受用户青睐。实际上,这个许可证使用户在保证源代码的封闭性的同时,可以售卖以该许可证发布的软件。再说说GPL,它需要每个使用以该许可证发布的软件的用户多加注意。 * 如果想在以不同许可证发布的两种软件中做出选择,您需要了解他们各自的许可证,以及他们开发中的方法论,从而能了解他们特性的区别,来选择更适合自己需求的。 #### 控制 * 由于FreeBSD和Linux是以不同的许可证发布的,Linus Torvalds控制着Linux的内核,而FreeBSD却与Linux不同,它并未被控制。我个人更倾向于使用FreeBSD而不是Linux,这是因为FreeBSD才是绝对的自由软件,不存在控制者。Linux和FreeBSD还有其他的不同之处,我建议您先不急着做出选择,等读完本文后再做出您的选择。 #### 操作系统 * Linux主要指内核系统,这与FreeBSD不同,FreeBSD的整个系统都被维护着。FreeBSD的内核和一组由FreeBSD团队开发的软件被作为一个整体进行维护。实际上,FreeBSD开发人员能够远程且高效的管理核心操作系统。 * 而Linux方面,在管理系统方面有一些困难。由于不同的组件由不同的源维护,Linux开发者需要将它们汇集起来,才能达到同样的功能。 * FreeBSD和Linux都给了用户大量的可选软件和发行版,但他们管理的方式不同。FreeBSD是统一的管理方式,而Linux需要被分别维护。 #### 硬件支持 * 说到硬件支持,Linux比FreeBSD做的更好。但这不意味着FreeBSD没有像Linux那样支持硬件的能力。他们只是在管理的方式不同,这通常还依赖于您的需求。因此,如果您在寻找最新的解决方案,FreeBSD更适应您;但如果您在寻找更多的普适性,那最好使用Linux。 #### 原生FreeBSD Vs 原生Linux * 两者的原生系统的区别又有不同。就像我之前说的,Linux是一个Unix的替代系统,由Linus Torvalds编写,并由网络上的许多极客一起协助实现的。Linux有一个现代系统所需要的全部功能,诸如虚拟内存、共享库、动态加载、优秀的内存管理等。它以GPL许可证发布。 * FreeBSD也继承了Unix的许多重要的特性。FreeBSD作为在加州大学开发的BSD的一种发行版。开发BSD的最重要的原因是用一个开源的系统来替代AT&T操作系统,从而给用户无需AT&T许可证便可使用的能力。 * 许可证的问题是开发者们最关心的问题。他们试图提供一个最大化克隆Unix的开源系统。这影响了用户的选择,由于FreeBSD使用BSD许可证进行发布,因而相比Linux更加自由。 #### 支持的软件包 * 从用户的角度来看,另一个二者不同的地方便是软件包以及从源码安装的软件的可用性和支持。Linux只提供了预编译的二进制包,这与FreeBSD不同,它不但提供预编译的包,而且还提供从源码编译和安装的构建系统。使用它的 ports 工具,FreeBSD给了您选择使用预编译的软件包(默认)和在编译时定制您软件的能力。(LCTT 译注:此处说明有误。Linux 也提供了源代码方式的包,并支持自己构建。) * 这些 ports 允许您构建所有支持FreeBSD的软件。而且,它们的管理还是层次化的,您可以在/usr/ports下找到源文件的地址以及一些正确使用FreeBSD的文档。 * 这些提到的 ports给予你产生不同软件包版本的可能性。FreeBSD给了您通过源代码构建以及预编译的两种软件,而不是像Linux一样只有预编译的软件包。您可以使用两种安装方式管理您的系统。 #### FreeBSD 和 Linux 常用工具比较 * 有大量的常用工具在FreeBSD上可用,并且有趣的是他们由FreeBSD的团队所拥有。相反的,Linux工具来自GNU,这就是为什么在使用中有一些限制。(LCTT 译注:这也是 Linux 正式的名称被称作“GNU/Linux”的原因,因为本质上 Linux 其实只是指内核。) * 实际上FreeBSD采用的BSD许可证非常有益且有用。因此,您有能力维护核心操作系统,控制这些应用程序的开发。有一些工具类似于它们的祖先 - BSD和Unix的工具,但不同于GNU的套件,GNU套件只想做到最小的向后兼容。 #### 标准 Shell * FreeBSD默认使用tcsh。它是csh的评估版,由于FreeBSD以BSD许可证发行,因此不建议您在其中使用GNU的组件 bash shell。bash和tcsh的区别仅仅在于tcsh的脚本功能。实际上,我们更推荐在FreeBSD中使用sh shell,因为它更加可靠,可以避免一些使用tcsh和csh时出现的脚本问题。 #### 一个更加层次化的文件系统 * 像之前提到的一样,使用FreeBSD时,基础操作系统以及可选组件可以被很容易的区别开来。这导致了一些管理它们的标准。在Linux下,/bin,/sbin,/usr/bin或者/usr/sbin都是存放可执行文件的目录。FreeBSD不同,它有一些附加的对其进行组织的规范。基础操作系统被放在/usr/local/bin或者/usr/local/sbin目录下。这种方法可以帮助管理和区分基础操作系统和可选组件。 ### 结论 FreeBSD和Linux都是自由且开源的系统,他们有相似点也有不同点。上面列出的内容并不能说哪个系统比另一个更好。实际上,FreeBSD和Linux都有自己的特点和技术规格,这使它们与别的系统区别开来。那么,您有什么看法呢?您已经有在使用它们中的某个系统了么?如果答案为是的话,请给我们您的反馈;如果答案是否的话,在读完我们的描述后,您怎么看?请在留言处发表您的观点。 --- via: <http://www.unixmen.com/comparative-introduction-freebsd-linux-users/> 作者:[anismaj](https://www.unixmen.com/author/anis/) 译者:[wwy-hust](https://github.com/wwy-hust) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,932
如何安装家庭媒体中心 Plex Media Server
http://linoxide.com/tools/install-plex-media-server-ubuntu-centos-7-1-fedora-22/
2015-07-31T14:35:00
[ "媒体服务器", "Plex" ]
/article-5932-1.html
在本文中我们将会向你展示如何容易地在主流的最新Linux发行版上安装Plex Media Server。在Plex安装成功后你将可以使用你的中央式家庭媒体播放系统,该系统能让多个Plex播放器App共享它的媒体资源,并且该系统允许你设置你的环境,增加你的设备以及设置一个可以一起使用Plex的用户组。让我们首先在Ubuntu15.04上开始Plex的安装。 ![](/data/attachment/album/201507/31/145357xfq7mchmf2npavnh.jpg) ### 基本的系统资源 系统资源主要取决于你打算用来连接服务的设备类型和数量, 所以根据我们的需求我们将会在一个单独的服务器上使用以下系统资源。 | | | --- | | **Plex Media Server** | | **基础操作系统** | Ubuntu 15.04 / CentOS 7.1 / Fedora 22 Work Station | | **Plex Media Server** | Version 0.9.12.3.1173-937aac3 | | **RAM 和 CPU** | 1 GB , 2.0 GHZ | | **硬盘** | 30 GB | ### 在Ubuntu 15.04上安装Plex Media Server 0.9.12.3 我们现在准备开始在Ubuntu上安装Plex Media Server,让我们从下面的步骤开始来让Plex做好准备。 #### 步骤 1: 系统更新 用root权限登录你的服务器。确保你的系统是最新的,如果不是就使用下面的命令。 ``` root@ubuntu-15:~#apt-get update ``` #### 步骤 2: 下载最新的Plex Media Server包 创建一个新目录,用wget命令从[Plex官网](https://plex.tv/)下载为Ubuntu提供的.deb包并放入该目录中。 ``` root@ubuntu-15:~# cd /plex/ root@ubuntu-15:/plex# root@ubuntu-15:/plex# wget https://downloads.plex.tv/plex-media-server/0.9.12.3.1173-937aac3/plexmediaserver_0.9.12.3.1173-937aac3_amd64.deb ``` #### 步骤 3: 安装Plex Media Server的Debian包 现在在相同的目录下执行下面的命令来开始debian包的安装, 然后检查plexmediaserver服务的状态。 ``` root@ubuntu-15:/plex# dpkg -i plexmediaserver_0.9.12.3.1173-937aac3_amd64.deb ``` --- ``` root@ubuntu-15:~# service plexmediaserver status ``` ![Plexmediaserver Service](/data/attachment/album/201507/31/143637dmxwzp55frmi44j5.png) ### 在Ubuntu 15.04上设置Plex Media Web应用 让我们在你的本地网络主机中打开web浏览器, 并用你的本地主机IP以及端口32400来打开Web界面,并完成以下步骤来配置Plex。 ``` http://172.25.10.179:32400/web http://localhost:32400/web ``` #### 步骤 1: 登录前先注册 在你访问到Plex Media Server的Web界面之后, 确保注册并填上你的用户名和密码来登录。 ![Plex Sign In](/data/attachment/album/201507/31/143545yaan77vnazwn7hb6.png) #### 输入你的PIN码来保护你的Plex Media用户 ![Plex User Pin](/data/attachment/album/201507/31/143546j47lim4h4rrlnz41.png) 现在你已经成功的在Plex Media下配置你的用户。 ![Welcome To Plex](/data/attachment/album/201507/31/143547op9yzyioxyf94wux.png) ### 在设备上而不是本地服务器上打开Plex Web应用 如我们在Plex Media主页看到的提示“你没有权限访问这个服务”。 这说明我们跟服务器计算机不在同个网络。 ![Plex Server Permissions](/data/attachment/album/201507/31/143549crewrw2t12vt2own.png) 现在我们需要解决这个权限问题,以便我们通过设备访问服务器而不是只能在服务器上访问。通过完成下面的步骤完成。 ### 设置SSH隧道使Windows系统可以访问到Linux服务器 首先我们需要建立一条SSH隧道以便我们访问远程服务器资源,就好像资源在本地一样。 这仅仅是必要的初始设置。 如果你正在使用Windows作为你的本地系统,Linux作为服务器,那么我们可以参照下图通过Putty来设置SSH隧道。 (LCTT译注: 首先要在Putty的Session中用Plex服务器IP配置一个SSH的会话,才能进行下面的隧道转发规则配置。 然后点击“Open”,输入远端服务器用户名密码, 来保持SSH会话连接。) ![Plex SSH Tunnel](/data/attachment/album/201507/31/143549rz4wzgk2m4jigckh.png) **一旦你完成SSH隧道设置:** 打开你的Web浏览器窗口并在地址栏输入下面的URL。 ``` http://localhost:8888/web ``` 浏览器将会连接到Plex服务器并且加载与服务器本地功能一致的Plex Web应用。 同意服务条款并开始。 ![Agree to Plex term](/data/attachment/album/201507/31/143550tl1hjlcywhal4g1g.png) 现在一个功能齐全的Plex Media Server已经准备好添加新的媒体库、频道、播放列表等资源。 ![PMS Settings](/data/attachment/album/201507/31/143551rje9tys9jcmt1ljm.png) ### 在CentOS 7.1上安装Plex Media Server 0.9.12.3 我们将会按照上述在Ubuntu15.04上安装Plex Media Server的步骤来将Plex安装到CentOS 7.1上。 让我们从安装Plex Media Server开始。 #### 步骤1: 安装Plex Media Server 为了在CentOS7.1上安装Plex Media Server,我们需要从Plex官网下载rpm安装包。 因此我们使用wget命令来将rpm包下载到一个新的目录下。 ``` [root@linux-tutorials ~]# cd /plex [root@linux-tutorials plex]# wget https://downloads.plex.tv/plex-media-server/0.9.12.3.1173-937aac3/plexmediaserver-0.9.12.3.1173-937aac3.x86_64.rpm ``` #### 步骤2: 安装RPM包 在完成安装包完整的下载之后, 我们将会使用rpm命令在相同的目录下安装这个rpm包。 ``` [root@linux-tutorials plex]# ls plexmediaserver-0.9.12.3.1173-937aac3.x86_64.rpm [root@linux-tutorials plex]# rpm -i plexmediaserver-0.9.12.3.1173-937aac3.x86_64.rpm ``` #### 步骤3: 启动Plexmediaservice 我们已经成功地安装Plex Media Server, 现在我们只需要重启它的服务然后让它永久地启用。 ``` [root@linux-tutorials plex]# systemctl start plexmediaserver.service [root@linux-tutorials plex]# systemctl enable plexmediaserver.service [root@linux-tutorials plex]# systemctl status plexmediaserver.service ``` ### 在CentOS-7.1上设置Plex Media Web应用 现在我们只需要重复在Ubuntu上设置Plex Web应用的所有步骤就可以了。 让我们在Web浏览器上打开一个新窗口并用localhost或者Plex服务器的IP来访问Plex Media Web应用。 ``` http://172.20.3.174:32400/web http://localhost:32400/web ``` 为了获取服务的完整权限你需要重复创建SSH隧道的步骤。 在你用新账户注册后我们将可以访问到服务的所有特性,并且可以添加新用户、添加新的媒体库以及根据我们的需求来设置它。 ![Plex Device Centos](/data/attachment/album/201507/31/143552ikjmropplmus7znt.png) ### 在Fedora 22工作站上安装Plex Media Server 0.9.12.3 下载和安装Plex Media Server步骤基本跟在CentOS 7.1上安装的步骤一致。我们只需要下载对应的rpm包然后用rpm命令来安装它。 ![PMS Installation](/data/attachment/album/201507/31/143553j8es5znoy444ycib.png) ### 在Fedora 22工作站上配置Plex Media Web应用 我们在(与Plex服务器)相同的主机上配置Plex Media Server,因此不需要设置SSH隧道。只要在你的Fedora 22工作站上用Plex Media Server的默认端口号32400打开Web浏览器并同意Plex的服务条款即可。 ![Plex Agreement](/data/attachment/album/201507/31/143555ud4qawwws2aaspqg.png) *欢迎来到Fedora 22工作站上的Plex Media Server* 让我们用你的Plex账户登录,并且开始将你喜欢的电影频道添加到媒体库、创建你的播放列表、添加你的图片以及享用更多其他的特性。 ![Plex Add Libraries](/data/attachment/album/201507/31/143557crdjodovevzoui6o.png) ### 总结 我们已经成功完成Plex Media Server在主流Linux发行版上安装和配置。Plex Media Server永远都是媒体管理的最佳选择。 它在跨平台上的设置是如此的简单,就像我们在Ubuntu,CentOS以及Fedora上的设置一样。它简化了你组织媒体内容的工作,并将媒体内容“流”向其他计算机以及设备以便你跟你的朋友分享媒体内容。 --- via: <http://linoxide.com/tools/install-plex-media-server-ubuntu-centos-7-1-fedora-22/> 作者:[Kashif Siddique](http://linoxide.com/author/kashifs/) 译者:[dingdongnigetou](https://github.com/dingdongnigetou) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /tools/install-plex-media-server-ubuntu-centos-7-1-fedora-22/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c5f60>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,939
如何分析 Linux 日志
http://www.loggly.com/ultimate-guide/logging/analyzing-linux-logs/
2015-08-03T13:30:00
[ "日志", "syslog" ]
https://linux.cn/article-5939-1.html
![](/data/attachment/album/201508/03/155441bjf3bzz3gmv3j7js.png) 日志中有大量的信息需要你处理,尽管有时候想要提取并非想象中的容易。在这篇文章中我们会介绍一些你现在就能做的基本日志分析例子(只需要搜索即可)。我们还将涉及一些更高级的分析,但这些需要你前期努力做出适当的设置,后期就能节省很多时间。对数据进行高级分析的例子包括生成汇总计数、对有效值进行过滤,等等。 我们首先会向你展示如何在命令行中使用多个不同的工具,然后展示了一个日志管理工具如何能自动完成大部分繁重工作从而使得日志分析变得简单。 ### 用 Grep 搜索 搜索文本是查找信息最基本的方式。搜索文本最常用的工具是 [grep](http://linux.die.net/man/1/grep)。这个命令行工具在大部分 Linux 发行版中都有,它允许你用正则表达式搜索日志。正则表达式是一种用特殊的语言写的、能识别匹配文本的模式。最简单的模式就是用引号把你想要查找的字符串括起来。 #### 正则表达式 这是一个在 Ubuntu 系统的认证日志中查找 “user hoover” 的例子: ``` $ grep "user hoover" /var/log/auth.log Accepted password for hoover from 10.0.2.2 port 4792 ssh2 pam_unix(sshd:session): session opened for user hoover by (uid=0) pam_unix(sshd:session): session closed for user hoover ``` 构建精确的正则表达式可能很难。例如,如果我们想要搜索一个类似端口 “4792” 的数字,它可能也会匹配时间戳、URL 以及其它不需要的数据。Ubuntu 中下面的例子,它匹配了一个我们不想要的 Apache 日志。 ``` $ grep "4792" /var/log/auth.log Accepted password for hoover from 10.0.2.2 port 4792 ssh2 74.91.21.46 - - [31/Mar/2015:19:44:32 +0000] "GET /scripts/samples/search?q=4972 HTTP/1.0" 404 545 "-" "-” ``` #### 环绕搜索 另一个有用的小技巧是你可以用 grep 做环绕搜索。这会向你展示一个匹配前面或后面几行是什么。它能帮助你调试导致错误或问题的东西。`B` 选项展示前面几行,`A` 选项展示后面几行。举个例子,我们知道当一个人以管理员员身份登录失败时,同时他们的 IP 也没有反向解析,也就意味着他们可能没有有效的域名。这非常可疑! ``` $ grep -B 3 -A 2 'Invalid user' /var/log/auth.log Apr 28 17:06:20 ip-172-31-11-241 sshd[12545]: reverse mapping checking getaddrinfo for 216-19-2-8.commspeed.net [216.19.2.8] failed - POSSIBLE BREAK-IN ATTEMPT! Apr 28 17:06:20 ip-172-31-11-241 sshd[12545]: Received disconnect from 216.19.2.8: 11: Bye Bye [preauth] Apr 28 17:06:20 ip-172-31-11-241 sshd[12547]: Invalid user admin from 216.19.2.8 Apr 28 17:06:20 ip-172-31-11-241 sshd[12547]: input_userauth_request: invalid user admin [preauth] Apr 28 17:06:20 ip-172-31-11-241 sshd[12547]: Received disconnect from 216.19.2.8: 11: Bye Bye [preauth] ``` #### Tail 你也可以把 grep 和 [tail](http://linux.die.net/man/1/tail) 结合使用来获取一个文件的最后几行,或者跟踪日志并实时打印。这在你做交互式更改的时候非常有用,例如启动服务器或者测试代码更改。 ``` $ tail -f /var/log/auth.log | grep 'Invalid user' Apr 30 19:49:48 ip-172-31-11-241 sshd[6512]: Invalid user ubnt from 219.140.64.136 Apr 30 19:49:49 ip-172-31-11-241 sshd[6514]: Invalid user admin from 219.140.64.136 ``` 关于 grep 和正则表达式的详细介绍并不在本指南的范围,但 [Ryan’s Tutorials](http://ryanstutorials.net/linuxtutorial/grep.php) 有更深入的介绍。 日志管理系统有更高的性能和更强大的搜索能力。它们通常会索引数据并进行并行查询,因此你可以很快的在几秒内就能搜索 GB 或 TB 的日志。相比之下,grep 就需要几分钟,在极端情况下可能甚至几小时。日志管理系统也使用类似 [Lucene](https://lucene.apache.org/core/2_9_4/queryparsersyntax.html) 的查询语言,它提供更简单的语法来检索数字、域以及其它。 ### 用 Cut、 AWK、 和 Grok 解析 #### 命令行工具 Linux 提供了多个命令行工具用于文本解析和分析。当你想要快速解析少量数据时非常有用,但处理大量数据时可能需要很长时间。 #### Cut [cut](http://linux.die.net/man/1/cut) 命令允许你从有分隔符的日志解析字段。分隔符是指能分开字段或键值对的等号或逗号等。 假设我们想从下面的日志中解析出用户: ``` pam_unix(su:auth): authentication failure; logname=hoover uid=1000 euid=0 tty=/dev/pts/0 ruser=hoover rhost= user=root ``` 我们可以像下面这样用 cut 命令获取用等号分割后的第八个字段的文本。这是一个 Ubuntu 系统上的例子: ``` $ grep "authentication failure" /var/log/auth.log | cut -d '=' -f 8 root hoover root nagios nagios ``` #### AWK 另外,你也可以使用 [awk](http://linux.die.net/man/1/awk),它能提供更强大的解析字段功能。它提供了一个脚本语言,你可以过滤出几乎任何不相干的东西。 例如,假设在 Ubuntu 系统中我们有下面的一行日志,我们想要提取登录失败的用户名称: ``` Mar 24 08:28:18 ip-172-31-11-241 sshd[32701]: input_userauth_request: invalid user guest [preauth] ``` 你可以像下面这样使用 awk 命令。首先,用一个正则表达式 /sshd.\*invalid user/ 来匹配 sshd invalid user 行。然后用 { print $9 } 根据默认的分隔符空格打印第九个字段。这样就输出了用户名。 ``` $ awk '/sshd.*invalid user/ { print $9 }' /var/log/auth.log guest admin info test ubnt ``` 你可以在 [Awk 用户指南](http://www.delorie.com/gnu/docs/gawk/gawk_26.html#IDX155) 中阅读更多关于如何使用正则表达式和输出字段的信息。 #### 日志管理系统 日志管理系统使得解析变得更加简单,使用户能快速的分析很多的日志文件。他们能自动解析标准的日志格式,比如常见的 Linux 日志和 Web 服务器日志。这能节省很多时间,因为当处理系统问题的时候你不需要考虑自己写解析逻辑。 下面是一个 sshd 日志消息的例子,解析出了每个 remoteHost 和 user。这是 Loggly 中的一张截图,它是一个基于云的日志管理服务。 ![](/data/attachment/album/201508/01/233258jko2k7qgmvikgfsy.png) 你也可以对非标准格式自定义解析。一个常用的工具是 [Grok](http://logstash.net/docs/1.4.2/filters/grok),它用一个常见正则表达式库,可以解析原始文本为结构化 JSON。下面是一个 Grok 在 Logstash 中解析内核日志文件的事例配置: ``` filter{ grok { match => {"message" => "%{CISCOTIMESTAMP:timestamp} %{HOST:host} %{WORD:program}%{NOTSPACE} %{NOTSPACE}%{NUMBER:duration}%{NOTSPACE} %{GREEDYDATA:kernel_logs}" } } ``` 下图是 Grok 解析后输出的结果: ![](/data/attachment/album/201508/01/233259in3d4nbe24diepc8.png) ### 用 Rsyslog 和 AWK 过滤 过滤使得你能检索一个特定的字段值而不是进行全文检索。这使你的日志分析更加准确,因为它会忽略来自其它部分日志信息不需要的匹配。为了对一个字段值进行搜索,你首先需要解析日志或者至少有对事件结构进行检索的方式。 #### 如何对应用进行过滤 通常,你可能只想看一个应用的日志。如果你的应用把记录都保存到一个文件中就会很容易。如果你需要在一个聚集或集中式日志中过滤一个应用就会比较复杂。下面有几种方法来实现: 1. 用 rsyslog 守护进程解析和过滤日志。下面的例子将 sshd 应用的日志写入一个名为 sshd-message 的文件,然后丢弃事件以便它不会在其它地方重复出现。你可以将它添加到你的 rsyslog.conf 文件中测试这个例子。 ``` :programname, isequal, “sshd” /var/log/sshd-messages &~ ``` 2. 用类似 awk 的命令行工具提取特定字段的值,例如 sshd 用户名。下面是 Ubuntu 系统中的一个例子。 ``` $ awk '/sshd.*invalid user/ { print $9 }' /var/log/auth.log guest admin info test ubnt ``` 3. 用日志管理系统自动解析日志,然后在需要的应用名称上点击过滤。下面是在 Loggly 日志管理服务中提取 syslog 域的截图。我们对应用名称 “sshd” 进行过滤,如维恩图图标所示。 ![](/data/attachment/album/201508/01/233259mxxglngn69lu9z8l.png) #### 如何过滤错误 一个人最希望看到日志中的错误。不幸的是,默认的 syslog 配置不直接输出错误的严重性,也就使得难以过滤它们。 这里有两个解决该问题的方法。首先,你可以修改你的 rsyslog 配置,在日志文件中输出错误的严重性,使得便于查看和检索。在你的 rsyslog 配置中你可以用 pri-text 添加一个 [模板](http://www.rsyslog.com/doc/v8-stable/configuration/templates.html),像下面这样: ``` "<%pri-text%> : %timegenerated%,%HOSTNAME%,%syslogtag%,%msg%n" ``` 这个例子会按照下面的格式输出。你可以看到该信息中指示错误的 err。 ``` <authpriv.err> : Mar 11 18:18:00,hoover-VirtualBox,su[5026]:, pam_authenticate: Authentication failure ``` 你可以用 awk 或者 grep 检索错误信息。在 Ubuntu 中,对这个例子,我们可以用一些语法特征,例如 . 和 >,它们只会匹配这个域。 ``` $ grep '.err>' /var/log/auth.log <authpriv.err> : Mar 11 18:18:00,hoover-VirtualBox,su[5026]:, pam_authenticate: Authentication failure ``` 你的第二个选择是使用日志管理系统。好的日志管理系统能自动解析 syslog 消息并抽取错误域。它们也允许你用简单的点击过滤日志消息中的特定错误。 下面是 Loggly 中一个截图,显示了高亮错误严重性的 syslog 域,表示我们正在过滤错误: ![](/data/attachment/album/201508/01/233300yo1mlj4rm8asp3j8.png) --- via: <http://www.loggly.com/ultimate-guide/logging/analyzing-linux-logs/> 作者:[Jason Skowronski](https://www.linkedin.com/in/jasonskowronski),[Amy Echeverri](https://www.linkedin.com/in/amyecheverri), [Sadequl Hussain](https://www.linkedin.com/pub/sadequl-hussain/14/711/1a7) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,943
如何在 Ubuntu 中管理开机启动应用
http://itsfoss.com/manage-startup-applications-ubuntu/
2015-08-03T14:05:00
[ "开机", "启动" ]
https://linux.cn/article-5943-1.html
![在 Ubuntu 中管理开机启动应用](/data/attachment/album/201508/02/220629bz0x7xxjljeiufxx.png) 你曾经考虑过 **在 Ubuntu 中管理开机启动应用** 吗?如果在开机时,你的 Ubuntu 系统启动得非常缓慢,那么你就需要考虑这个问题了。 每当你开机进入一个操作系统,一系列的应用将会自动启动。这些应用被称为‘开机启动应用’ 或‘开机启动程序’。随着时间的推移,当你在系统中安装了足够多的应用时,你将发现有太多的‘开机启动应用’在开机时自动地启动了,它们吃掉了很多的系统资源,并将你的系统拖慢。这可能会让你感觉卡顿,我想这种情况并不是你想要的。 让 Ubuntu 变得更快的方法之一是对这些开机启动应用进行控制。 Ubuntu 为你提供了一个 GUI 工具来让你找到这些开机启动应用,然后完全禁止或延迟它们的启动,这样就可以不让每个应用在开机时同时运行。 在这篇文章中,我们将看到 **在 Ubuntu 中,如何控制开机启动应用,如何让一个应用在开机时启动以及如何发现隐藏的开机启动应用。**这里提供的指导对所有的 Ubuntu 版本均适用,例如 Ubuntu 12.04, Ubuntu 14.04 和 Ubuntu 15.04。 ### 在 Ubuntu 中管理开机启动应用 默认情况下, Ubuntu 提供了一个`Startup Applications`工具来供你使用,你不必再进行安装。只需到 Unity 面板中就可以查找到该工具。 ![ubuntu 中的开机启动应用工具](/data/attachment/album/201508/02/220629xvit4hm213hdu9g3.jpg) 点击它来启动。下面是我的`Startup Applications`的样子: ![在 Ubuntu 中查看开机启动程序](/data/attachment/album/201508/02/220630ohmcktx52cc5ha2c.png) ### 在 Ubuntu 中移除开机启动应用 现在由你来发现哪个程序对你用处不大,对我来说,是 [Caribou](https://wiki.gnome.org/action/show/Projects/Caribou?action=show&redirect=Caribou) 这个软件,它是一个屏幕键盘程序,在开机时它并没有什么用处,所以我想将它移除出开机启动程序的列表中。 你可以选择阻止某个程序在开机时启动,而在开机启动程序列表中保留该选项以便以后再进行激活。点击 `关闭`按钮来保留你的偏好设置。 ![在 Ubuntu 中移除开机启动程序](/data/attachment/album/201508/02/220630f5j97wc7bq7855wk.png) 要将一个程序从开机启动程序列表中移除,选择对应的选项然后从窗口右边的面板中点击`移除`按钮来保留你的偏好设置。 ![在 Ubuntu 中将程序从开机启动列表中移除](/data/attachment/album/201508/02/220632h9cz94vae2ag3c8m.jpg) 需要提醒的是,这并不会将该程序卸载掉,只是让该程序不再在每次开机时自动启动。你可以对所有你不喜欢的程序做类似的处理。 ### 让开机启动程序延迟启动 若你并不想在开机启动列表中移除掉程序,但同时又忧虑着系统性能的问题,那么你所需要做的是给程序添加一个延迟启动命令,这样所有的程序就不会在开机时同时启动。 选择一个程序然后点击 `编辑` 按钮。 ![编辑开机启动应用列表](/data/attachment/album/201508/02/220636lss7zeywsywgz87n.png) 这将展示出运行这个特定的程序所需的命令。 ![在开机启动列表的程序运行所需的命令](/data/attachment/album/201508/02/220637qodukg1dn70qunyi.jpg) 所有你需要做的就是在程序运行命令前添加一句 `sleep XX;` 。这样就为实际运行该命令来启动的对应程序添加了 `XX` 秒的延迟。例如,假如我想让 Variety [壁纸管理应用](http://itsfoss.com/applications-manage-wallpapers-ubuntu/) 延迟启动 2 分钟,我就需要像下面那样在命令前添加 `sleep 120;` ![在 Ubuntu 中延迟开机启动的程序](/data/attachment/album/201508/02/220637au44lg6gw7blq2u7.png) 保存并关闭设置。你将在下一次启动时看到效果。 ### 增添一个程序到开机启动应用列表中 这对于新手来说需要一点技巧。我们知道,在 Linux 的底层都是一些命令,在上一节我们看到这些开机启动程序只是在每次开机时运行一些命令。假如你想在开机启动列表中添加一个新的程序,你需要知道运行该应用所需的命令。 #### 第 1 步:如何查找运行一个程序所需的命令? 首先来到 Unity Dash 面板然后搜索 `Main Menu`: ![Ubuntu 下的程序菜单](/data/attachment/album/201508/02/220637bh22fdqr68qihc22.jpg) 这将展示出在各种类别下你安装的所有程序。在 Ubuntu 的低版本中,你将看到一个相似的菜单,通过它来选择并运行应用。 ![Ubuntu 下的 main menu ](/data/attachment/album/201508/02/220640w42j2zgu29u69jjz.jpg) 在各种类别下找到你找寻的应用,然后点击 `属性` 按钮来查看运行该应用所需的命令。例如,我想在开机时运行 `Transmission Torrent 客户端`。 ![在 Ubuntu 下查找运行程序所需的命令](/data/attachment/album/201508/02/220649gvkl0gnvil12yjy1.jpg) 这就会向我给出运行 `Transmission` 应用的命令: ![在 Ubuntu 下查找运行某个程序所需的命令](/data/attachment/album/201508/02/220658z737j7xs5pp8p43i.png) 接着,我将用相同的信息来将 `Transmission` 应用添加到开机启动列表中。 #### 第 2 步: 添加一个程序到开机启动列表中 再次来到开机启动应用工具中并点击 `添加` 按钮。这将让你输入一个应用的名称,对应的命令和相关的描述。其中命令最为重要,你可以使用任何你想用的名称和描述。使用上一步得到的命令然后点击 `添加` 按钮。 ![在 Ubuntu 中添加一个开机启动程序](/data/attachment/album/201508/02/220700lrrgsj93c7h73s3r.jpg) 就这样,你将在下一次开机时看到这个程序会自动运行。这就是在 Ubuntu 中你能做的关于开机启动应用的所有事情。 到现在为止,我们已经讨论在开机时可见到的应用,但仍有更多的服务,守护进程和程序并不在`开机启动应用工具`中可见。下一节中,我们将看到如何在 Ubuntu 中查看这些隐藏的开机启动程序。 ### 在 Ubuntu 中查看隐藏的开机启动程序 要查看在开机时哪些服务在运行,可以打开一个终端并使用下面的命令: ``` sudo sed -i 's/NoDisplay=true/NoDisplay=false/g' /etc/xdg/autostart/*.desktop ``` 上面的命令是一个快速查找和替换命令,它将在所有自动启动的程序里的 `NoDisplay=false` 改为 `NoDisplay=true` ,一旦执行了这个命令后,再次打开`开机启动应用工具`,现在你应该可以看到更多的程序: ![在 Ubuntu 中查看隐藏的开机启动程序](/data/attachment/album/201508/02/220702oj501820jmq05jig.jpg) 你可以像先前我们讨论的那样管理这些开机启动应用。我希望这篇教程可以帮助你在 Ubuntu 中控制开机启动程序。任何的问题或建议总是欢迎的。 --- via: <http://itsfoss.com/manage-startup-applications-ubuntu/> 作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,944
如何使用Docker Machine部署Swarm集群
http://linoxide.com/linux-how-to/provision-swarm-clusters-using-docker-machine/
2015-08-03T14:28:00
[ "集群", "Docker", "Docker Machine", "Docker Swarm" ]
/article-5944-1.html
大家好,今天我们来研究一下如何使用Docker Machine部署Swarm集群。Docker Machine提供了标准的Docker API 支持,所以任何可以与Docker守护进程进行交互的工具都可以使用Swarm来(透明地)扩增到多台主机上。Docker Machine可以用来在个人电脑、云端以及的数据中心里创建Docker主机。它为创建服务器,安装Docker以及根据用户设定来配置Docker客户端提供了便捷化的解决方案。我们可以使用任何驱动来部署swarm集群,并且swarm集群将由于使用了TLS加密具有极好的安全性。 下面是我提供的简便方法。 ![](/data/attachment/album/201508/02/223303o09o5mff9s85sz95.png) ### 1. 安装Docker Machine Docker Machine 在各种Linux系统上都支持的很好。首先,我们需要从Github上下载最新版本的Docker Machine。我们使用curl命令来下载最先版本Docker Machine ie 0.2.0。 64位操作系统: ``` # curl -L https://github.com/docker/machine/releases/download/v0.2.0/docker-machine_linux-amd64 > /usr/local/bin/docker-machine ``` 32位操作系统: ``` # curl -L https://github.com/docker/machine/releases/download/v0.2.0/docker-machine_linux-i386 > /usr/local/bin/docker-machine ``` 下载了最先版本的Docker Machine之后,我们需要对 /usr/local/bin/ 目录下的docker-machine文件的权限进行修改。命令如下: ``` # chmod +x /usr/local/bin/docker-machine ``` 在做完上面的事情以后,我们要确保docker-machine已经安装正确。怎么检查呢?运行`docker-machine -v`指令,该指令将会给出我们系统上所安装的docker-machine版本。 ``` # docker-machine -v ``` ![](/data/attachment/album/201508/03/155423c1zspfh145xp1skx.png) 为了让Docker命令能够在我们的机器上运行,必须还要在机器上安装Docker客户端。命令如下。 ``` # curl -L https://get.docker.com/builds/linux/x86_64/docker-latest > /usr/local/bin/docker # chmod +x /usr/local/bin/docker ``` ### 2. 创建Machine 在将Docker Machine安装到我们的设备上之后,我们需要使用Docker Machine创建一个machine。在这篇文章中,我们会将其部署在Digital Ocean Platform上。所以我们将使用“digitalocean”作为它的Driver API,然后将docker swarm运行在其中。这个Droplet会被设置为Swarm主控节点,我们还要创建另外一个Droplet,并将其设定为Swarm节点代理。 创建machine的命令如下: ``` # docker-machine create --driver digitalocean --digitalocean-access-token <API-Token> linux-dev ``` **备注**: 假设我们要创建一个名为“linux-dev”的machine。是用户在Digital Ocean Cloud Platform的Digital Ocean控制面板中生成的密钥。为了获取这个密钥,我们需要登录我们的Digital Ocean控制面板,然后点击API选项,之后点击Generate New Token,起个名字,然后在Read和Write两个选项上打钩。之后我们将得到一个很长的十六进制密钥,这个就是了。用其替换上面那条命令中的API-Token字段。 现在,运行下面的指令,将Machine 的配置变量加载进shell里。 ``` # eval "$(docker-machine env linux-dev)" ``` ![Docker Machine Digitalocean Cloud](/data/attachment/album/201508/02/223310kbhwvmvhop3rsuww.png) 然后,我们使用如下命令将我们的machine标记为ACTIVE状态。 ``` # docker-machine active linux-dev ``` 现在,我们检查它(指machine)是否被标记为了 ACTIVE "\*"。 ``` # docker-machine ls ``` ![Docker Machine Active List](/data/attachment/album/201508/02/223311uqlsollgollbqoz3.png) ### 3. 运行Swarm Docker镜像 现在,在我们创建完成了machine之后。我们需要将swarm docker镜像部署上去。这个machine将会运行这个docker镜像,并且控制Swarm主控节点和从节点。使用下面的指令运行镜像: ``` # docker run swarm create ``` ![Docker Machine Swarm Create](/data/attachment/album/201508/02/223312ke85u6d7eg2q5s6x.png) 如果你想要在**32位操作系统**上运行swarm docker镜像。你需要SSH登录到Droplet当中。 ``` # docker-machine ssh # docker run swarm create # exit ``` ### 4. 创建Swarm主控节点 在我们的swarm image已经运行在machine当中之后,我们将要创建一个Swarm主控节点。使用下面的语句,添加一个主控节点。 ``` # docker-machine create \ -d digitalocean \ --digitalocean-access-token <DIGITALOCEAN-TOKEN> --swarm \ --swarm-master \ --swarm-discovery token://<CLUSTER-ID> \ swarm-master ``` ![Docker Machine Swarm Master Create](/data/attachment/album/201508/02/223313cqppapwipkq1wtyb.png) ### 5. 创建Swarm从节点 现在,我们将要创建一个swarm从节点,此节点将与Swarm主控节点相连接。下面的指令将创建一个新的名为swarm-node的droplet,其与Swarm主控节点相连。到此,我们就拥有了一个两节点的swarm集群了。 ``` # docker-machine create \ -d digitalocean \ --digitalocean-access-token <DIGITALOCEAN-TOKEN> --swarm \ --swarm-discovery token://<TOKEN-FROM-ABOVE> \ swarm-node ``` ![Docker Machine Swarm Nodes](/data/attachment/album/201508/02/223314zd0zhu6r83rdswrs.png) ### 6. 与Swarm主控节点连接 现在,我们连接Swarm主控节点以便我们可以依照需求和配置文件在节点间部署Docker容器。运行下列命令将Swarm主控节点的Machine配置文件加载到环境当中。 ``` # eval "$(docker-machine env --swarm swarm-master)" ``` 然后,我们就可以跨节点地运行我们所需的容器了。在这里,我们还要检查一下是否一切正常。所以,运行**docker info**命令来检查Swarm集群的信息。 ``` # docker info ``` ### 总结 我们可以用Docker Machine轻而易举地创建Swarm集群。这种方法有非常高的效率,因为它极大地减少了系统管理员和用户的时间消耗。在这篇文章中,我们以Digital Ocean作为驱动,通过创建一个主控节点和一个从节点成功地部署了集群。其他类似的驱动还有VirtualBox,Google Cloud Computing,Amazon Web Service,Microsoft Azure等等。这些连接都是通过TLS进行加密的,具有很高的安全性。如果你有任何的疑问,建议,反馈,欢迎在下面的评论框中注明以便我们可以更好地提高文章的质量! --- via: <http://linoxide.com/linux-how-to/provision-swarm-clusters-using-docker-machine/> 作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[DongShuaike](https://github.com/DongShuaike) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/provision-swarm-clusters-using-docker-machine/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c6410>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,946
Lennart Poettering 宣布召开首届 systemd.conf 会议
http://lists.freedesktop.org/archives/systemd-devel/2015-July/033761.html
2015-08-03T21:58:48
[ "systemd" ]
https://linux.cn/article-5946-1.html
备受争议的 Linux 初始化系统和服务管理器 Systemd 的创始人 Lennart Poettering [宣布即将召开首届systemd会议](http://lists.freedesktop.org/archives/systemd-devel/2015-July/033761.html) :systemd.conf,它将于11月5日到7日在德国柏林举办。 ![](/data/attachment/album/201508/03/215726d5ujz6djnpkbgub3.png) systemd 项目是当今大多数 Linux 发行版的核心部件。在 systemd.conf 2015 上,将讨论 Linux 核心平台的现状和发展。参会者主要是开发者、发行版打包人员等。会议还包括一个黑客节活动。 本次大会的网址是: <https://systemd.events/> 注册地址: <https://systemd.events/systemdconf-2015/registration> ,在 8/16 前注册会有折扣。 本次大会也在征集演讲: <https://systemd.events/systemdconf-2015/add/session> 。
302
Found
null
5,947
如何在 Fedora 22 上配置 Proftpd 服务器
http://linoxide.com/linux-how-to/configure-ftp-proftpd-fedora-22/
2015-08-04T08:05:00
[ "ProFTPD" ]
/article-5947-1.html
在本文中,我们将了解如何在运行 Fedora 22 的电脑或服务器上使用 Proftpd 架设 FTP 服务器。[ProFTPD](http://www.proftpd.org/) 是一款基于 GPL 授权的自由开源 FTP 服务器软件,是 Linux 上的主流 FTP 服务器。它的主要设计目标是提供许多高级功能以及给用户提供丰富的配置选项以轻松实现定制。它具备许多在其他一些 FTP 服务器软件里仍然没有的配置选项。最初它是被开发作为 wu-ftpd 服务器的一个更安全更容易配置的替代。 ![](/data/attachment/album/201508/03/231336sdea77p7g8pd1oib.png) FTP 服务器是这样一个软件,用户可以通过 FTP 客户端从安装了它的远端服务器上传或下载文件和目录。下面是一些 ProFTPD 服务器的主要功能,更详细的资料可以访问 <http://www.proftpd.org/features.html>。 * 每个目录都可以包含 ".ftpaccess" 文件用于访问控制,类似 Apache 的 ".htaccess" * 支持多个虚拟 FTP 服务器以及多用户登录和匿名 FTP 服务。 * 可以作为独立进程启动服务或者通过 inetd/xinetd 启动 * 它的文件/目录属性、属主和权限是基于 UNIX 方式的。 * 它可以独立运行,保护系统避免 root 访问可能带来的损坏。 * 模块化的设计让它可以轻松扩展其他模块,比如 LDAP 服务器,SSL/TLS 加密,RADIUS 支持,等等。 * ProFTPD 服务器还支持 IPv6. 下面是如何在运行 Fedora 22 操作系统的计算机上使用 ProFTPD 架设 FTP 服务器的一些简单步骤。 ### 1. 安装 ProFTPD 首先,我们将在运行 Fedora 22 的机器上安装 Proftpd 软件。因为 yum 包管理器已经被抛弃了,我们将使用最新最好的包管理器 dnf。DNF 很容易使用,是 Fedora 22 上采用的非常人性化的包管理器。我们将用它来安装 proftpd 软件。这需要在终端或控制台里用 sudo 模式运行下面的命令。 ``` $ sudo dnf -y install proftpd proftpd-utils ``` ### 2. 配置 ProFTPD 现在,我们将修改软件的一些配置。要配置它,我们需要用文本编辑器编辑 /etc/proftpd.conf 文件。**/etc/proftpd.conf** 文件是 ProFTPD 软件的主要配置文件,所以,这个文件的任何改动都会影响到 FTP 服务器。在这里,是我们在初始步骤里做出的改动。 ``` $ sudo vi /etc/proftpd.conf ``` 之后,在用文本编辑器打开这个文件后,我们会想改下 ServerName 以及 ServerAdmin,分别填入自己的域名和 email 地址。下面是我们改的。 ``` ServerName "ftp.linoxide.com" ServerAdmin arun@linoxide.com ``` 在这之后,我们将把下面的设定加到配置文件里,这样可以让服务器将访问和授权记录到相应的日志文件里。 ``` ExtendedLog /var/log/proftpd/access.log WRITE,READ default ExtendedLog /var/log/proftpd/auth.log AUTH auth ``` ![调整 ProFTPD 设置](/data/attachment/album/201508/04/201025dymkr2sywwjwmkyu.png) ### 3. 添加 FTP 用户 在设定好了基本的配置文件后,我们很自然地希望添加一个以特定目录为根目录的 FTP 用户。目前登录的用户自动就可以使用 FTP 服务,可以用来登录到 FTP 服务器。但是,在这篇教程里,我们将创建一个以 ftp 服务器上指定目录为主目录的新用户。 下面,我们将建立一个名字是 ftpgroup 的新用户组。 ``` $ sudo groupadd ftpgroup ``` 然后,我们将以目录 /ftp-dir/ 作为主目录增加一个新用户 arunftp 并加入这个组中。 ``` $ sudo useradd -G ftpgroup arunftp -s /sbin/nologin -d /ftp-dir/ ``` 在创建好用户并加入用户组后,我们将为用户 arunftp 设置一个密码。 ``` $ sudo passwd arunftp Changing password for user arunftp. New password: Retype new password: passwd: all authentication tokens updated successfully. ``` 现在,我们将通过下面命令为这个 ftp 用户设定主目录的读写权限(LCTT 译注:这是SELinux 相关设置,如果未启用 SELinux,可以不用)。 ``` $ sudo setsebool -P allow_ftpd_full_access=1 $ sudo setsebool -P ftp_home_dir=1 ``` 然后,我们会设定不允许其他用户移动或重命名这个目录以及里面的内容。 ``` $ sudo chmod -R 1777 /ftp-dir/ ``` ### 4. 打开 TLS 支持 目前 FTP 所用的加密手段并不安全,任何人都可以通过监听网卡来读取 FTP 传输的数据。所以,我们将为自己的服务器打开 TLS 加密支持。这样的话,需要编辑 /etc/proftpd.conf 配置文件。在这之前,我们先备份一下当前的配置文件,可以保证在改出问题后还可以恢复。 ``` $ sudo cp /etc/proftpd.conf /etc/proftpd.conf.bak ``` 然后,我们可以用自己喜欢的文本编辑器修改配置文件。 ``` $ sudo vi /etc/proftpd.conf ``` 然后,把下面几行附加到我们在第 2 步中所增加内容的后面。 ``` TLSEngine on TLSRequired on TLSProtocol SSLv23 TLSLog /var/log/proftpd/tls.log TLSRSACertificateFile /etc/pki/tls/certs/proftpd.pem TLSRSACertificateKeyFile /etc/pki/tls/certs/proftpd.pem ``` ![打开 TLS 配置](/data/attachment/album/201508/04/201026u2po3b6bkmoqksos.png) 完成上面的设定后,保存退出。 然后,我们需要生成 SSL 凭证 proftpd.pem 并放到 **/etc/pki/tls/certs/** 目录里。这样的话,首先需要在 Fedora 22 上安装 openssl。 ``` $ sudo dnf install openssl ``` 然后,可以通过执行下面的命令生成 SSL 凭证。 ``` $ sudo openssl req -x509 -nodes -newkey rsa:2048 -keyout /etc/pki/tls/certs/proftpd.pem -out /etc/pki/tls/certs/proftpd.pem ``` 系统会询问一些将写入凭证里的基本信息。在填完资料后,就会生成一个 2048 位的 RSA 私钥。 ``` Generating a 2048 bit RSA private key ...................+++ ...................+++ writing new private key to '/etc/pki/tls/certs/proftpd.pem' ----- You are about to be asked to enter information that will be incorporated into your certificate request. What you are about to enter is what is called a Distinguished Name or a DN. There are quite a few fields but you can leave some blank For some fields there will be a default value, If you enter '.', the field will be left blank. ----- Country Name (2 letter code) [XX]:NP State or Province Name (full name) []:Narayani Locality Name (eg, city) [Default City]:Bharatpur Organization Name (eg, company) [Default Company Ltd]:Linoxide Organizational Unit Name (eg, section) []:Linux Freedom Common Name (eg, your name or your server's hostname) []:ftp.linoxide.com Email Address []:arun@linoxide.com ``` 在这之后,我们要改变所生成凭证文件的权限以增加安全性。 ``` $ sudo chmod 600 /etc/pki/tls/certs/proftpd.pem ``` ### 5. 允许 FTP 通过 Firewall 现在,需要允许 ftp 端口,一般默认被防火墙阻止了。就是说,需要允许 ftp 端口能通过防火墙访问。 如果 **打开了 TLS/SSL 加密**,执行下面的命令。 ``` $ sudo firewall-cmd --add-port=1024-65534/tcp $ sudo firewall-cmd --add-port=1024-65534/tcp --permanent ``` 如果 **没有打开 TLS/SSL 加密**,执行下面的命令。 ``` $ sudo firewall-cmd --permanent --zone=public --add-service=ftp success ``` 然后,重新加载防火墙设定。 ``` $ sudo firewall-cmd --reload success ``` ### 6. 启动并激活 ProFTPD 全部设定好后,最后就是启动 ProFTPD 并试一下。可以运行下面的命令来启动 proftpd ftp 守护程序。 ``` $ sudo systemctl start proftpd.service ``` 然后,我们可以设定开机启动。 ``` $ sudo systemctl enable proftpd.service Created symlink from /etc/systemd/system/multi-user.target.wants/proftpd.service to /usr/lib/systemd/system/proftpd.service. ``` ### 7. 登录到 FTP 服务器 现在,如果都是按照本教程设置好的,我们一定可以连接到 ftp 服务器并使用以上设置的信息登录上去。在这里,我们将配置一下 FTP 客户端 filezilla,使用 **服务器的 IP 或名称 \**作为主机名,协议选择 \**FTP**,用户名填入 **arunftp**,密码是在上面第 3 步中设定的密码。如果你按照第 4 步中的方式打开了 TLS 支持,还需要在加密类型中选择 **要求显式的基于 TLS 的 FTP**,如果没有打开,也不想使用 TLS 加密,那么加密类型选择 **简单 FTP**。 ![FTP 登录细节](/data/attachment/album/201508/04/201006etc2zc2w5nnnpw2w.png) 要做上述设定,需要打开菜单里的文件,点击站点管理器,然后点击新建站点,再按上面的方式设置。 ![FTP SSL 凭证](/data/attachment/album/201508/04/201008v03rrzf404a7mt9b.png) 随后系统会要求允许 SSL 凭证,点确定。之后,就可以从我们的 FTP 服务器上传下载文件和文件夹了。 ### 总结 最后,我们成功地在 Fedora 22 机器上安装并配置好了 Proftpd FTP 服务器。Proftpd 是一个超级强大,能高度定制和扩展的 FTP 守护软件。上面的教程展示了如何配置一个采用 TLS 加密的安全 FTP 服务器。强烈建议设置 FTP 服务器支持 TLS 加密,因为它允许使用 SSL 凭证加密数据传输和登录。本文中,我们也没有配置 FTP 的匿名访问,因为一般受保护的 FTP 系统不建议这样做。 FTP 访问让人们的上传和下载变得非常简单也更高效。我们还可以改变用户端口增加安全性。好吧,如果你有任何疑问,建议,反馈,请在下面评论区留言,这样我们就能够改善并更新文章内容。谢谢!玩的开心 :-) --- via: <http://linoxide.com/linux-how-to/configure-ftp-proftpd-fedora-22/> 作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[zpl1025](https://github.com/zpl1025) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/configure-ftp-proftpd-fedora-22/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c4f10>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,948
关于Linux防火墙'iptables'的面试问答
http://www.tecmint.com/linux-firewall-iptables-interview-questions-and-answers/
2015-08-04T09:28:00
[ "面试", "防火墙", "iptabls" ]
https://linux.cn/article-5948-1.html
Nishita Agarwal是Tecmint的用户,她将分享关于她刚刚经历的一家公司(印度的一家私人公司Pune)的面试经验。在面试中她被问及许多不同的问题,但她是iptables方面的专家,因此她想分享这些关于iptables的问题和相应的答案给那些以后可能会进行相关面试的人。 ![Linux防火墙Iptables面试问题](/data/attachment/album/201508/03/234510d1xoykzrr5j8yy61.jpg) 所有的问题和相应的答案都基于Nishita Agarwal的记忆并经过了重写。 > > “嗨,朋友!我叫**Nishita Agarwal**。我已经取得了理学学士学位,我的专业集中在UNIX和它的变种(BSD,Linux)。它们一直深深的吸引着我。我在存储方面有1年多的经验。我正在寻求职业上的变化,并将供职于印度的Pune公司。” > > > 下面是我在面试中被问到的问题的集合。我已经把我记忆中有关iptables的问题和它们的答案记录了下来。希望这会对您未来的面试有所帮助。 ### 1. 你听说过Linux下面的iptables和Firewalld么?知不知道它们是什么,是用来干什么的? **答案** : iptables和Firewalld我都知道,并且我已经使用iptables好一段时间了。iptables主要由C语言写成,并且以GNU GPL许可证发布。它是从系统管理员的角度写的,最新的稳定版是iptables 1.4.21。iptables通常被用作类UNIX系统中的防火墙,更准确的说,可以称为iptables/netfilter。管理员通过终端/GUI工具与iptables打交道,来添加和定义防火墙规则到预定义的表中。Netfilter是内核中的一个模块,它执行包过滤的任务。 Firewalld是RHEL/CentOS 7(也许还有其他发行版,但我不太清楚)中最新的过滤规则的实现。它已经取代了iptables接口,并与netfilter相连接。 ### 2. 你用过一些iptables的GUI或命令行工具么? **答案** : 虽然我既用过GUI工具,比如与[Webmin](http://www.tecmint.com/install-webmin-web-based-system-administration-tool-for-rhel-centos-fedora/)结合的Shorewall;以及直接通过终端访问iptables,但我必须承认通过Linux终端直接访问iptables能给予用户更高级的灵活性、以及对其背后工作更好的理解的能力。GUI适合初级管理员,而终端适合有经验的管理员。 ### 3. 那么iptables和firewalld的基本区别是什么呢? **答案** : iptables和firewalld都有着同样的目的(包过滤),但它们使用不同的方式。iptables与firewalld不同,在每次发生更改时都刷新整个规则集。通常iptables配置文件位于‘/etc/sysconfig/iptables‘,而firewalld的配置文件位于‘/etc/firewalld/‘。firewalld的配置文件是一组XML文件。以XML为基础进行配置的firewalld比iptables的配置更加容易,但是两者都可以完成同样的任务。例如,firewalld可以在自己的命令行界面以及基于XML的配置文件下使用iptables。 ### 4. 如果有机会的话,你会在你所有的服务器上用firewalld替换iptables么? **答案** : 我对iptables很熟悉,它也工作的很好。如果没有任何需求需要firewalld的动态特性,那么没有理由把所有的配置都从iptables移动到firewalld。通常情况下,目前为止,我还没有看到iptables造成什么麻烦。IT技术的通用准则也说道“为什么要修一件没有坏的东西呢?”。上面是我自己的想法,但如果组织愿意用firewalld替换iptables的话,我不介意。 ### 5. 你看上去对iptables很有信心,巧的是,我们的服务器也在使用iptables。 iptables使用的表有哪些?请简要的描述iptables使用的表以及它们所支持的链。 **答案** : 谢谢您的赞赏。至于您问的问题,iptables使用的表有四个,它们是: * Nat 表 * Mangle 表 * Filter 表 * Raw 表 Nat表 : Nat表主要用于网络地址转换。根据表中的每一条规则修改网络包的IP地址。流中的包仅遍历一遍Nat表。例如,如果一个通过某个接口的包被修饰(修改了IP地址),该流中其余的包将不再遍历这个表。通常不建议在这个表中进行过滤,由NAT表支持的链称为PREROUTING 链,POSTROUTING 链和OUTPUT 链。 Mangle表 : 正如它的名字一样,这个表用于校正网络包。它用来对特殊的包进行修改。它能够修改不同包的头部和内容。Mangle表不能用于地址伪装。支持的链包括PREROUTING 链,OUTPUT 链,Forward 链,Input 链和POSTROUTING 链。 Filter表 : Filter表是iptables中使用的默认表,它用来过滤网络包。如果没有定义任何规则,Filter表则被当作默认的表,并且基于它来过滤。支持的链有INPUT 链,OUTPUT 链,FORWARD 链。 Raw表 : Raw表在我们想要配置之前被豁免的包时被使用。它支持PREROUTING 链和OUTPUT 链。 ### 6. 简要谈谈什么是iptables中的目标值(能被指定为目标),他们有什么用 **答案** : 下面是在iptables中可以指定为目标的值: * ACCEPT : 接受包 * QUEUE : 将包传递到用户空间 (应用程序和驱动所在的地方) * DROP : 丢弃包 * RETURN : 将控制权交回调用的链并且为当前链中的包停止执行下一调用规则 ### 7. 让我们来谈谈iptables技术方面的东西,我的意思是说实际使用方面 你怎么检测在CentOS中安装iptables时需要的iptables的rpm? **答案** : iptables已经被默认安装在CentOS中,我们不需要单独安装它。但可以这样检测rpm: ``` # rpm -qa iptables iptables-1.4.21-13.el7.x86_64 ``` 如果您需要安装它,您可以用yum来安装。 ``` # yum install iptables-services ``` ### 8. 怎样检测并且确保iptables服务正在运行? **答案** : 您可以在终端中运行下面的命令来检测iptables的状态。 ``` # service status iptables [On CentOS 6/5] # systemctl status iptables [On CentOS 7] ``` 如果iptables没有在运行,可以使用下面的语句 ``` ---------------- 在CentOS 6/5下 ---------------- # chkconfig --level 35 iptables on # service iptables start ---------------- 在CentOS 7下 ---------------- # systemctl enable iptables # systemctl start iptables ``` 我们还可以检测iptables的模块是否被加载: ``` # lsmod | grep ip_tables ``` ### 9. 你怎么检查iptables中当前定义的规则呢? **答案** : 当前的规则可以简单的用下面的命令查看: ``` # iptables -L ``` 示例输出 ``` Chain INPUT (policy ACCEPT) target prot opt source destination ACCEPT all -- anywhere anywhere state RELATED,ESTABLISHED ACCEPT icmp -- anywhere anywhere ACCEPT all -- anywhere anywhere ACCEPT tcp -- anywhere anywhere state NEW tcp dpt:ssh REJECT all -- anywhere anywhere reject-with icmp-host-prohibited Chain FORWARD (policy ACCEPT) target prot opt source destination REJECT all -- anywhere anywhere reject-with icmp-host-prohibited Chain OUTPUT (policy ACCEPT) target prot opt source destination ``` ### 10. 你怎样刷新所有的iptables规则或者特定的链呢? **答案** : 您可以使用下面的命令来刷新一个特定的链。 ``` # iptables --flush OUTPUT ``` 要刷新所有的规则,可以用: ``` # iptables --flush ``` ### 11. 请在iptables中添加一条规则,接受所有从一个信任的IP地址(例如,192.168.0.7)过来的包。 **答案** : 上面的场景可以通过运行下面的命令来完成。 ``` # iptables -A INPUT -s 192.168.0.7 -j ACCEPT ``` 我们还可以在源IP中使用标准的斜线和子网掩码: ``` # iptables -A INPUT -s 192.168.0.7/24 -j ACCEPT # iptables -A INPUT -s 192.168.0.7/255.255.255.0 -j ACCEPT ``` ### 12. 怎样在iptables中添加规则以ACCEPT,REJECT,DENY和DROP ssh的服务? **答案** : 但愿ssh运行在22端口,那也是ssh的默认端口,我们可以在iptables中添加规则来ACCEPT ssh的tcp包(在22号端口上)。 ``` # iptables -A INPUT -p tcp --dport 22 -j ACCEPT ``` REJECT ssh服务(22号端口)的tcp包。 ``` # iptables -A INPUT -p tcp --dport 22 -j REJECT ``` DENY ssh服务(22号端口)的tcp包。 ``` # iptables -A INPUT -p tcp --dport 22 -j DENY ``` DROP ssh服务(22号端口)的tcp包。 ``` # iptables -A INPUT -p tcp --dport 22 -j DROP ``` ### 13. 让我给你另一个场景,假如有一台电脑的本地IP地址是192.168.0.6。你需要封锁在21、22、23和80号端口上的连接,你会怎么做? **答案** : 这时,我所需要的就是在iptables中使用‘multiport‘选项,并将要封锁的端口号跟在它后面。上面的场景可以用下面的一条语句搞定: ``` # iptables -A INPUT -s 192.168.0.6 -p tcp -m multiport --dport 22,23,80,8080 -j DROP ``` 可以用下面的语句查看写入的规则。 ``` # iptables -L Chain INPUT (policy ACCEPT) target prot opt source destination ACCEPT all -- anywhere anywhere state RELATED,ESTABLISHED ACCEPT icmp -- anywhere anywhere ACCEPT all -- anywhere anywhere ACCEPT tcp -- anywhere anywhere state NEW tcp dpt:ssh REJECT all -- anywhere anywhere reject-with icmp-host-prohibited DROP tcp -- 192.168.0.6 anywhere multiport dports ssh,telnet,http,webcache Chain FORWARD (policy ACCEPT) target prot opt source destination REJECT all -- anywhere anywhere reject-with icmp-host-prohibited Chain OUTPUT (policy ACCEPT) target prot opt source destination ``` **面试官** : 好了,我问的就是这些。你是一个很有价值的雇员,我们不会错过你的。我将会向HR推荐你的名字。如果你有什么问题,请问我。 作为一个候选人我不愿不断的问将来要做的项目的事以及公司里其他的事,这样会打断愉快的对话。更不用说HR轮会不会比较难,总之,我获得了机会。 同时我要感谢Avishek和Ravi(我的朋友)花时间帮我整理我的面试。 朋友!如果您有过类似的面试,并且愿意与数百万Tecmint读者一起分享您的面试经历,请将您的问题和答案发送到[admin@tecmint.com](mailto:admin@tecmint.com)。 谢谢!保持联系。如果我能更好的回答我上面的问题的话,请记得告诉我。 --- via: <http://www.tecmint.com/linux-firewall-iptables-interview-questions-and-answers/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[wwy-hust](https://github.com/wwy-hust) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,949
如何在 Ubuntu 上比较 PDF 文件
http://www.ubuntugeek.com/compare-pdf-files-on-ubuntu.html
2015-08-04T10:06:00
[ "PDF", "比较" ]
https://linux.cn/article-5949-1.html
如果你想要对PDF文件进行比较,你可以使用下面工具之一。 ### Comparepdf comparepdf是一个命令行应用,用于将两个PDF文件进行对比。默认对比模式是文本模式,该模式会对各对相关页面进行文字对比。只要一检测到差异,该程序就会终止,并显示一条信息(除非设置了-v0)和一个指示性的返回码。 用于文本模式对比的选项有 -ct 或 --compare=text(默认),用于视觉对比(这对图标或其它图像发生改变时很有用)的选项有 -ca 或 --compare=appearance。而 -v=1 或 --verbose=1 选项则用于报告差异(或者对匹配文件不作任何回应);使用 -v=0 选项取消报告,或者 -v=2 来同时报告不同的和匹配的文件。 #### 安装comparepdf到Ubuntu 打开终端,然后运行以下命令 ``` sudo apt-get install comparepdf ``` **Comparepdf 语法** ``` comparepdf [OPTIONS] file1.pdf file2.pdf ``` ### Diffpdf DiffPDF是一个图形化应用程序,用于对两个PDF文件进行对比。默认情况下,它只会对比两个相关页面的文字,但是也支持对图形化页面进行对比(例如,如果图表被修改过,或者段落被重新格式化过)。它也可以对特定的页面或者页面范围进行对比。例如,如果同一个PDF文件有两个版本,其中一个有页面1-12,而另一个则有页面1-13,因为这里添加了一个额外的页面4,它们可以通过指定两个页面范围来进行对比,第一个是1-12,而1-3,5-13则可以作为第二个页面范围。这将使得DiffPDF成对地对比这些页面(1,1),(2,2),(3,3),(4,5),(5,6),以此类推,直到(12,13)。 #### 安装 diffpdf 到 ubuntu 打开终端,然后运行以下命令 ``` sudo apt-get install diffpdf ``` #### 截图 ![](/data/attachment/album/201508/04/000759bv4hnmjnpckaaghj.png) ![](/data/attachment/album/201508/04/000759r38frrk3wqqbk844.png) --- via: <http://www.ubuntugeek.com/compare-pdf-files-on-ubuntu.html> 作者:[ruchi](http://www.ubuntugeek.com/author/ubuntufix) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
200
OK
# Compare PDF Files on Ubuntu **Sponsored Link** **Comparepdf** comparepdf is a command line application used to compare two PDF files.The default comparison mode is text mode where the text of each corresponding pair of pages is compared. As soon as a difference is detected the program terminates with a message (unless -v0 is set) and an indicative return code. The OPTIONS are -ct or --compare=text (the default) for text mode comparisons or -ca or --compare=appearance for visual comparisons (useful if diagrams or other images have changed), and -v=1 or --verbose=1 for reporting differences (and saying nothing for matching files): use -v=0 for no reporting or -v=2 for reporting both different and matching files. **Install Comparepdf on ubuntu** Open the terminal and run the following command sudo apt-get install comparepdf **Comparepdf syntax** comparepdf [OPTIONS] file1.pdf file2.pdf **Diffpdf** DiffPDF is a GUI application used to compare two PDF files.By default the comparison is of the text on each pair of pages, but comparing the visual appearance of pages is also supported (for example, if a diagram is changed or if a paragraph is reformatted). It is also possible to compare pticular pages or page ranges. For example, if there are two versions of a PDF file, one with pages 1-12 and the other with pages 1-13 because of an extra page having been added as page 4, they can be compared by specifying two page ranges, 1-12 for the first and 1-3, 5-13 for the second. This will make DiffPDF compare pages in the pairs (1, 1), (2, 2), (3, 3), (4, 5), (5, 6), and so on, to (12, 13). **Install diffpdf on ubuntu** Open the terminal and run the following command sudo apt-get install diffpdf **Screenshots**
5,953
什么是逻辑分区管理 LVM ,如何在Ubuntu中使用?
http://www.howtogeek.com/howto/36568/what-is-logical-volume-management-and-how-do-you-enable-it-in-ubuntu/
2015-08-04T22:31:37
[ "LVM" ]
https://linux.cn/article-5953-1.html
> > 逻辑分区管理(LVM)是每一个主流Linux发行版都含有的磁盘管理选项。无论是你需要设置存储池,还是只想动态创建分区,那么LVM就是你正在寻找的。 > > > ### 什么是 LVM? 逻辑分区管理是一个存在于磁盘/分区和操作系统之间的一个抽象层。在传统的磁盘管理中,你的操作系统寻找有哪些磁盘可用(/dev/sda、/dev/sdb等等),并且这些磁盘有哪些可用的分区(如/dev/sda1、/dev/sda2等等)。 在LVM下,磁盘和分区可以抽象成一个含有多个磁盘和分区的设备。你的操作系统将不会知道这些区别,因为LVM只会给操作系统展示你设置的卷组(磁盘)和逻辑卷(分区) 因为卷组和逻辑卷并不物理地对应到影片,因此可以很容易地动态调整和创建新的磁盘和分区。除此之外,LVM带来了你的文件系统所不具备的功能。比如,ext3不支持实时快照,但是如果你正在使用LVM你可以不卸载磁盘的情况下做一个逻辑卷的快照。 ### 你什么时候该使用LVM? 在使用LVM之前首先得考虑的一件事是你要用你的磁盘和分区来做什么。注意,一些发行版如Fedora已经默认安装了LVM。 如果你使用的是一台只有一块磁盘的Ubuntu笔记本电脑,并且你不需要像实时快照这样的扩展功能,那么你或许不需要LVM。如果你想要轻松地扩展或者想要将多块磁盘组成一个存储池,那么LVM或许正是你所寻找的。 ### 在Ubuntu中设置LVM 使用LVM首先要了解的一件事是,没有一个简单的方法可以将已有的传统分区转换成逻辑卷。可以将数据移到一个使用LVM的新分区下,但是这并不会在本篇中提到;在这里,我们将全新安装一台Ubuntu 10.10来设置LVM。(LCTT 译注:本文针对的是较老的版本,新的版本已经不需如此麻烦了) 要使用LVM安装Ubuntu你需要使用另外的安装CD。从下面的链接中下载并烧录到CD中或者[使用unetbootin创建一个USB盘](http://www.howtogeek.com/howto/13379/create-a-bootable-ubuntu-9.10-usb-flash-drive/)。 ![](/data/attachment/album/201508/04/223138ibttfw8bplbftv23.png) 从安装盘启动你的电脑,并在磁盘选择界面选择整个磁盘并设置LVM。 *注意:这会格式化你的整个磁盘,因此如果正在尝试双启动或者其他的安装选择,选择手动。* ![](/data/attachment/album/201508/04/223138ozb08du22221e1ii.png) 选择你想用的主磁盘,最典型的是使用你最大的磁盘,接着进入下一步。 ![](/data/attachment/album/201508/04/223139ljcdtj17us1cz70m.png) 你马上会将改变写入磁盘所以确保此时你选择的是正确的磁盘接着才写入设置。 ![](/data/attachment/album/201508/04/223139q6gl8ga47algaatb.png) 选择第一个逻辑卷的大小并继续。 ![](/data/attachment/album/201508/04/223140pxbiemo8krnox8or.png) 确认你的磁盘分区并继续安装。 ![](/data/attachment/album/201508/04/223141dbv55dbzxfvf59mm.png) 最后一步将GRUB的bootloader写到磁盘中。重点注意的是GRUB不能作为一个LVM分区因为计算机BIOS不能直接从逻辑卷中读取数据。Ubuntu将自动创建一个255MB的ext2分区用于bootloder。 ![](/data/attachment/album/201508/04/223141kz18z93nh4l75918.png) 安装完成之后。重启电脑并如往常一样进入Ubuntu。使用这种方式安装之后应该就感受不到LVM和传统磁盘管理之间的区别了。 ![](/data/attachment/album/201508/04/223141m39ok9q9qmqsq9dd.png) 要使用LVM的全部功能,静待我们的下篇关于管理LVM的文章。 --- via: <http://www.howtogeek.com/howto/36568/what-is-logical-volume-management-and-how-do-you-enable-it-in-ubuntu/> 作者:[How-To Geek](https://plus.google.com/+howtogeek?prsrc=5) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,954
如何在 Ubuntu 中管理和使用逻辑卷管理 LVM
http://www.howtogeek.com/howto/40702/how-to-manage-and-use-lvm-logical-volume-management-in-ubuntu/
2015-08-05T08:08:00
[ "LVM" ]
https://linux.cn/article-5954-1.html
![](/data/attachment/album/201508/04/231045qa6vy9zgf5fkh7a6.png) 在我们之前的文章中,我们介绍了[什么是 LVM 以及能用 LVM 做什么](/article-5953-1.html),今天我们会给你介绍一些 LVM 的主要管理工具,使得你在设置和扩展安装时更游刃有余。 正如之前所述,LVM 是介于你的操作系统和物理硬盘驱动器之间的抽象层。这意味着你的物理硬盘驱动器和分区不再依赖于他们所在的硬盘驱动和分区。而是你的操作系统所见的硬盘驱动和分区可以是由任意数目的独立硬盘汇集而成的或是一个软件磁盘阵列。 要管理 LVM,这里有很多可用的 GUI 工具,但要真正理解 LVM 配置发生的事情,最好要知道一些命令行工具。这当你在一个服务器或不提供 GUI 工具的发行版上管理 LVM 时尤为有用。 LVM 的大部分命令和彼此都非常相似。每个可用的命令都由以下其中之一开头: * Physical Volume (物理卷) = pv * Volume Group (卷组)= vg * Logical Volume (逻辑卷)= lv 物理卷命令用于在卷组中添加或删除硬盘驱动。卷组命令用于为你的逻辑卷操作更改显示的物理分区抽象集。逻辑卷命令会以分区形式显示卷组,使得你的操作系统能使用指定的空间。 ### 可下载的 LVM 备忘单 为了帮助你理解每个前缀可用的命令,我们制作了一个备忘单。我们会在该文章中介绍一些命令,但仍有很多你可用但没有介绍到的命令。 该列表中的所有命令都要以 root 身份运行,因为你更改的是会影响整个机器系统级设置。 ![](/data/attachment/album/201508/04/231046j00cr40gxltwlwl0.png) ### 如何查看当前 LVM 信息 你首先需要做的事情是检查你的 LVM 设置。s 和 display 命令可以和物理卷(pv)、卷组(vg)以及逻辑卷(lv)一起使用,是一个找出当前设置的好起点。 display 命令会格式化输出信息,因此比 s 命令更易于理解。对每个命令你会看到名称和 pv/vg 的路径,它还会给出空闲和已使用空间的信息。 ![](/data/attachment/album/201508/04/231047heyfgo9p6lpeegl9.png) 最重要的信息是 PV 名称和 VG 名称。用这两部分信息我们可以继续进行 LVM 设置。 ### 创建一个逻辑卷 逻辑卷是你的操作系统在 LVM 中使用的分区。创建一个逻辑卷,首先需要拥有一个物理卷和卷组。下面是创建一个新的逻辑卷所需要的全部命令。 #### 创建物理卷 我们会从一个全新的没有任何分区和信息的硬盘开始。首先找出你将要使用的磁盘。(/dev/sda, sdb, 等) > > 注意:记住所有的命令都要以 root 身份运行或者在命令前面添加 'sudo' 。 > > > ``` fdisk -l ``` 如果之前你的硬盘从未格式化或分区过,在 fdisk 的输出中你很可能看到类似下面的信息。这完全正常,因为我们会在下面的步骤中创建需要的分区。 ![](/data/attachment/album/201508/04/231047cx1hobthiu7xhiti.png) 我们的新磁盘位置是 /dev/sdb,让我们用 fdisk 命令在磁盘上创建一个新的分区。 这里有大量能创建新分区的 GUI 工具,包括 [Gparted](http://www.howtogeek.com/howto/17001/how-to-format-a-usb-drive-in-ubuntu-using-gparted/),但由于我们已经打开了终端,我们将使用 fdisk 命令创建需要的分区。 在终端中输入以下命令: ``` fdisk /dev/sdb ``` 这会使你进入到一个特殊的 fdisk 提示符中。 ![](/data/attachment/album/201508/04/231047yq9qk9kq42seaf2a.png) 以指定的顺序输入命令创建一个使用新硬盘 100% 空间的主分区并为 LVM 做好了准备。如果你需要更改分区的大小或想要多个分区,我建议使用 GParted 或自己了解一下关于 fdisk 命令的使用。 **警告:下面的步骤会格式化你的硬盘驱动。确保在进行下面步骤之前你的硬盘驱动中没有任何有用的信息。** * n = 创建新分区 * p = 创建主分区 * 1 = 成为磁盘上的首个分区 输入 enter 键两次以接受默认的第一个和最后一个柱面。 ![](/data/attachment/album/201508/04/231048kb6os36h4hfhhn34.png) 用下面的命令准备 LVM 所使用的分区。 * t = 更改分区类型 * 8e = 更改为 LVM 分区类型 核实并将信息写入硬盘。 * p = 查看分区设置使得在写入更改到磁盘之前可以回看 * w = 写入更改到磁盘 ![](/data/attachment/album/201508/04/231048a891xj5694j45y4g.png) 运行这些命令之后,会退出 fdisk 提示符并返回到终端的 bash 提示符中。 输入 pvcreate /dev/sdb1 在刚创建的分区上新建一个 LVM 物理卷。 你也许会问为什么我们不用一个文件系统格式化分区,不用担心,该步骤在后面。 ![](/data/attachment/album/201508/04/231048v63z8eyve82z95b4.png) #### 创建卷组 现在我们有了一个指定的分区和创建好的物理卷,我们需要创建一个卷组。很幸运这只需要一个命令。 ``` vgcreate vgpool /dev/sdb1 ``` ![](/data/attachment/album/201508/04/231049o5s4ntswrstwto4n.png) vgpool 是新创建的卷组的名称。你可以使用任何你喜欢的名称,但建议标签以 vg 开头,以便后面你使用它时能意识到这是一个卷组。 #### 创建逻辑卷 创建 LVM 将使用的逻辑卷: ``` lvcreate -L 3G -n lvstuff vgpool ``` ![](/data/attachment/album/201508/04/231049grs4scspkkm14kw2.png) -L 命令指定逻辑卷的大小,在该情况中是 3 GB,-n 命令指定卷的名称。 指定 vgpool 以便 lvcreate 命令知道从什么卷获取空间。 #### 格式化并挂载逻辑卷 最后一步是用一个文件系统格式化新的逻辑卷。如果你需要选择一个 Linux 文件系统的帮助,请阅读 [如果根据需要选取最合适的文件系统](http://www.howtogeek.com/howto/33552/htg-explains-which-linux-file-system-should-you-choose/)。 ``` mkfs -t ext3 /dev/vgpool/lvstuff ``` ![](/data/attachment/album/201508/04/231049fr0rry0bv0eyl30x.png) 创建挂载点并将卷挂载到你可以使用的地方。 ``` mkdir /mnt/stuff mount -t ext3 /dev/vgpool/lvstuff /mnt/stuff ``` ![](/data/attachment/album/201508/04/231050pzcrr9tq1i400zq9.png) #### 重新设置逻辑卷大小 逻辑卷的一个好处是你能使你的存储物理地变大或变小,而不需要移动所有东西到一个更大的硬盘。另外,你可以添加新的硬盘并同时扩展你的卷组。或者如果你有一个不使用的硬盘,你可以从卷组中移除它使得逻辑卷变小。 这里有三个用于使物理卷、卷组和逻辑卷变大或变小的基础工具。 注意:这些命令中的每个都要以 pv、vg 或 lv 开头,取决于你的工作对象。 * resize – 能压缩或扩展物理卷和逻辑卷,但卷组不能 * extend – 能使卷组和逻辑卷变大但不能变小 * reduce – 能使卷组和逻辑卷变小但不能变大 让我们来看一个如何向刚创建的逻辑卷 "lvstuff" 添加新硬盘驱动的例子。 #### 安装并格式化新硬盘驱动 按照上面创建新分区并更改分区类型为 LVM(8e) 的步骤安装一个新硬盘驱动。然后用 pvcreate 命令创建一个 LVM 能识别的物理卷。 #### 添加新硬盘到卷组 要添加新的硬盘到一个卷组,你只需要知道你的新分区,在我们的例子中是 /dev/sdc1,以及想要添加到的卷组的名称。 这会添加新物理卷到已存在的卷组中。 ``` vgextend vgpool /dev/sdc1 ``` ![](/data/attachment/album/201508/04/231050qufs4xc4j8ca2cq3.png) #### 扩展逻辑卷 调整逻辑卷的大小,我们需要指出的是通过大小而不是设备来扩展。在我们的例子中,我们会添加一个 8GB 的硬盘驱动到我们的 3GB vgpool。我们可以用 lvextend 或 lvresize 命令使该空间可用。 ``` lvextend -L8G /dev/vgpool/lvstuff ``` ![](/data/attachment/album/201508/04/231050ivavwdo89naig35a.png) 当这个命令工作的时候你会发现它实际上重新设置逻辑卷大小为 8GB 而不是我们期望的将 8GB 添加到已存在的卷上。要添加剩余的可用 3GB 你需要用下面的命令。 ``` lvextend -L+3G /dev/vgpool/lvstuff ``` ![](/data/attachment/album/201508/04/231051qlslzu42h40vhv2f.png) 现在我们的逻辑卷已经是 11GB 大小了。 #### 扩展文件系统 逻辑卷是 11GB 大小但是上面的文件系统仍然只有 3GB。要使文件系统使用整个的 11GB 可用空间你需要用 resize2fs 命令。你只需要指定 resize2fs 到 11GB 逻辑卷它就会帮你完成其余的工作。 ``` resize2fs /dev/vgpool/lvstuff ``` ![](/data/attachment/album/201508/04/231051obnossoopvsb74sh.png) **注意:如果你使用除 ext3/4 之外的文件系统,请查看调整你的文件系统大小的工具。** #### 压缩逻辑卷 如果你想从卷组中移除一个硬盘驱动你可以按照上面的步骤反向操作,并用 lvreduce 或 vgreduce 命令代替。 1. 调整文件系统大小 (调整之前确保已经移动文件到硬盘驱动安全的地方) 2. 减小逻辑卷 (除了 + 可以扩展大小,你也可以用 - 压缩大小) 3. 用 vgreduce 从卷组中移除硬盘 #### 备份逻辑卷 快照是一些新的高级文件系统提供的功能,但是 ext3/4 文件系统并没有快照的功能。LVM 快照最棒的是你的文件系统永不掉线,你可以拥有你想要的任何大小而不需要额外的硬盘空间。 ![](/data/attachment/album/201508/04/231051be8fe71if7v8dmei.png) LVM 获取快照的时候,会有一张和逻辑卷完全相同的“照片”,该“照片”可以用于在不同的硬盘上进行备份。生成一个备份的时候,任何需要添加到逻辑卷的新信息会如往常一样写入磁盘,但会跟踪更改使得原始快照永远不会损毁。 要创建一个快照,我们需要创建拥有足够空闲空间的逻辑卷,用于保存我们备份的时候会写入该逻辑卷的任何新信息。如果驱动并不是经常写入,你可以使用很小的一个存储空间。备份完成的时候我们只需要移除临时逻辑卷,原始逻辑卷会和往常一样。 #### 创建新快照 创建 lvstuff 的快照,用带 -s 标记的 lvcreate 命令。 ``` lvcreate -L512M -s -n lvstuffbackup /dev/vgpool/lvstuff ``` ![](/data/attachment/album/201508/04/231052djq3zmzlmypzlwpw.png) 这里我们创建了一个只有 512MB 的逻辑卷,因为该硬盘实际上并不会使用。512MB 的空间会保存备份时产生的任何新数据。 #### 挂载新快照 和之前一样,我们需要创建一个挂载点并挂载新快照,然后才能从中复制文件。 ``` mkdir /mnt/lvstuffbackup mount /dev/vgpool/lvstuffbackup /mnt/lvstuffbackup ``` ![](/data/attachment/album/201508/04/231052hsdno4xmmrmoltys.png) #### 复制快照和删除逻辑卷 你剩下需要做的是从 /mnt/lvstuffbackup/ 中复制所有文件到一个外部的硬盘或者打包所有文件到一个文件。 **注意:tar -c 会创建一个归档文件,-f 要指出归档文件的名称和路径。要获取 tar 命令的帮助信息,可以在终端中输入 man tar。** ``` tar -cf /home/rothgar/Backup/lvstuff-ss /mnt/lvstuffbackup/ ``` ![](/data/attachment/album/201508/04/231052vqzwvj5kw5v1rc1b.png) 记住备份时候写到 lvstuff 的所有文件都会在我们之前创建的临时逻辑卷中被跟踪。确保备份的时候你有足够的空闲空间。 备份完成后,卸载卷并移除临时快照。 ``` umount /mnt/lvstuffbackup lvremove /dev/vgpool/lvstuffbackup/ ``` ![](/data/attachment/album/201508/04/231053fnddj76t611ak0af.png) #### 删除逻辑卷 要删除一个逻辑卷,你首先需要确保卷已经卸载,然后你可以用 lvremove 命令删除它。逻辑卷删除后你可以移除卷组,卷组删除后你可以删除物理卷。 这是所有移除我们创建的卷和组的命令。 ``` umount /mnt/lvstuff lvremove /dev/vgpool/lvstuff vgremove vgpool pvremove /dev/sdb1 /dev/sdc1 ``` ![](/data/attachment/album/201508/04/231053nax33a3lnxu7dqb3.png) 这些已经囊括了关于 LVM 你需要了解的大部分知识。如果你有任何关于这些讨论的经验,请在下面的评论框中和大家分享。 --- via: <http://www.howtogeek.com/howto/40702/how-to-manage-and-use-lvm-logical-volume-management-in-ubuntu/> 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,956
7 个驱动开源发展的社区
http://www.networkworld.com/article/2866074/opensource-subnet/7-communities-driving-open-source-development.html
2015-08-05T10:04:00
[ "开源组织", "开源基金会" ]
https://linux.cn/article-5956-1.html
不久前,开源模式还被成熟的工业级厂商以怀疑的态度认作是叛逆小孩的玩物。如今,开源的促进会和基金会在一长列的供应商提供者的支持下正蓬勃发展,而他们将开源模式视作创新的关键。 ![](/data/attachment/album/201508/05/000602vcozsyhfgskshxlk.jpg) ### 技术的开放发展驱动着创新 在过去的 20 几年间,技术的开源推进已被视作驱动创新的关键因素。即使那些以前将开源视作威胁的公司也开始接受这个观点 — 例如微软,如今它在一系列的开源的促进会中表现活跃。到目前为止,大多数的开源推进都集中在软件方面,但甚至这个也正在改变,因为社区已经开始向开源硬件倡议方面聚拢。这里介绍 7 个成功地在硬件和软件方面同时促进和发展开源技术的组织。 ### OpenPOWER 基金会 ![](/data/attachment/album/201508/05/000604jnj76yxys27dj4iy.jpg) [OpenPOWER 基金会](http://www.linuxfoundation.org/) 由 IBM, Google, Mellanox, Tyan 和 NVIDIA 于 2013 年共同创建,在与开源软件发展相同的精神下,旨在驱动开放协作硬件的发展,在过去的 20 几年间,开源软件发展已经找到了肥沃的土壤。 IBM 通过开放其基于 Power 架构的硬件和软件技术,向使用 Power IP 的独立硬件产品提供许可证等方式为基金会的建立播下种子。如今超过 70 个成员共同协作来为基于 Linux 的数据中心提供自定义的开放服务器,组件和硬件。 去年四月,在比最新基于 x86 系统快 50 倍的数据分析能力的新的 POWER8 处理器的服务器的基础上, OpenPOWER 推出了一个技术路线图。七月, IBM 和 Google 发布了一个固件堆栈。去年十月见证了 NVIDIA GPU 带来加速 POWER8 系统的能力和来自 Tyan 的第一个 OpenPOWER 参考服务器。 ### Linux 基金会 ![](/data/attachment/album/201508/05/000605sslwahyew114hsha.jpg) 于 2000 年建立的 [Linux 基金会](http://www.linuxfoundation.org/) 如今成为掌控着历史上最大的开源协同开发成果,它有着超过 180 个合作成员和许多独立成员及学生成员。它赞助 Linux 核心开发者的工作并促进、保护和推进 Linux 操作系统,并协调软件的协作开发。 它最为成功的协作项目包括 Code Aurora Forum (一个拥有为移动无线产业服务的企业财团),MeeGo (一个为移动设备和 IVI [注:指的是车载消息娱乐设备,为 In-Vehicle Infotainment 的简称] 构建一个基于 Linux 内核的操作系统的项目) 和 Open Virtualization Alliance (开放虚拟化联盟,它促进自由和开源软件虚拟化解决方案的采用)。 ### 开放虚拟化联盟 ![](/data/attachment/album/201508/05/000605w6eeu9pzpb77uwe6.jpg) [开放虚拟化联盟(OVA)](https://openvirtualizationalliance.org/) 的存在目的为:通过提供使用案例和对具有互操作性的通用接口和 API 的发展提供支持,来促进自由、开源软件的虚拟化解决方案,例如 KVM 的采用。KVM 将 Linux 内核转变为一个虚拟机管理程序。 如今, KVM 已成为和 OpenStack 共同使用的最为常见的虚拟机管理程序。 ### OpenStack 基金会 ![](/data/attachment/album/201508/05/000606oqtnhdghh9h6gfnn.jpg) 原本作为一个 IaaS(基础设施即服务) 产品由 NASA 和 Rackspace 于 2010 年启动,[OpenStack 基金会](http://www.openstack.org/foundation/) 已成为最大的开源项目聚居地之一。它拥有超过 200 家公司成员,其中包括 AT&T, AMD, Avaya, Canonical, Cisco, Dell 和 HP。 大约以 6 个月为一个发行周期,基金会的 OpenStack 项目开发用于通过一个基于 Web 的仪表盘,命令行工具或一个 RESTful 风格的 API 来控制或调配流经一个数据中心的处理存储池和网络资源。至今为止,基金会支持的协同开发已经孕育出了一系列 OpenStack 组件,其中包括 OpenStack Compute(一个云计算网络控制器,它是一个 IaaS 系统的主要部分),OpenStack Networking(一个用以管理网络和 IP 地址的系统) 和 OpenStack Object Storage(一个可扩展的冗余存储系统)。 ### OpenDaylight ![](/data/attachment/album/201508/05/000608cba9cd9l6o4y9o4p.jpg) 作为来自 Linux 基金会的另一个协作项目, [OpenDaylight](http://www.opendaylight.org/) 是一个由诸如 Dell, HP, Oracle 和 Avaya 等行业厂商于 2013 年 4 月建立的联合倡议。它的任务是建立一个由社区主导、开源、有工业支持的针对软件定义网络( SDN: Software-Defined Networking)的包含代码和蓝图的框架。其思路是提供一个可直接部署的全功能 SDN 平台,而不需要其他组件,供应商可提供附件组件和增强组件。 ### Apache 软件基金会 ![](/data/attachment/album/201508/05/000609xzvhe9qhx07z50d0.jpg) [Apache 软件基金会 (ASF)](http://www.opencompute.org/) 是将近 150 个顶级项目的聚居地,这些项目涵盖从开源的企业级自动化软件到与 Apache Hadoop 相关的分布式计算的整个生态系统。这些项目分发企业级、可免费获取的软件产品,而 Apache 协议则是为了让无论是商业用户还是个人用户更方便地部署 Apache 的产品。 ASF 是 1999 年成立的一个会员制,非盈利公司,以精英为其核心 — 要成为它的成员,你必须首先在基金会的一个或多个协作项目中做出积极贡献。 ### 开放计算项目 ![](/data/attachment/album/201508/05/000610feuzte3bswdbuuwz.jpg) 作为 Facebook 重新设计其 Oregon 数据中心的副产物, [开放计算项目](http://www.opencompute.org/) 旨在发展针对数据中心的开源硬件解决方案。 OCP 是一个由廉价无浪费的服务器、针对 Open Rack(为数据中心设计的机架标准,来让机架集成到数据中心的基础设施中) 的模块化 I/O 存储和一个相对 "绿色" 的数据中心设计方案等构成。 OCP 董事会成员包括来自 Facebook,Intel,Goldman Sachs,Rackspace 和 Microsoft 的代表。 OCP 最近宣布了有两种可选的许可证: 一个类似 Apache 2.0 的允许衍生工作的许可证,和一个更规范的鼓励将更改回馈到原有软件的许可证。 --- via: <http://www.networkworld.com/article/2866074/opensource-subnet/7-communities-driving-open-source-development.html> 作者:[Thor Olavsrud](http://www.networkworld.com/author/Thor-Olavsrud/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,964
LibreOffice 5.0 发布
http://www.phoronix.com/scan.php?page=news_item&px=LibreOffice-5.0-Released
2015-08-06T07:33:00
[ "LibreOffice" ]
https://linux.cn/article-5964-1.html
按照预期计划, [LibreOffice 5](http://www.phoronix.com/scan.php?page=search&q=LibreOffice+5) 开源办公套件于今日发布。 ![](/data/attachment/album/201508/05/223557i6o66cxj2uuqqzju.png) LibreOffice 5.0 带来了许多新功能,从 [首次支持 GTK3 和 Wayland](http://www.phoronix.com/scan.php?page=news_item&px=LibreOffice-On-Wayland) 到为支持移动和云端所做的基础工作,以及对 spreadsheets 的改进、OpenGL 渲染的提升等等。 你可以在 LibreOffice 5.0 的开发者 Michael Meeks 的[博客](https://people.gnome.org/~michael/blog/2015-08-05-under-the-hood-5-0.html)读到更多的底层工作。现在就可以在 [LibreOffice.org](https://www.libreoffice.org) 下载支持所有主要平台的 LibreOffice 了。 ### 下载 * [Linux x64 (deb)](https://www.libreoffice.org/download/libreoffice-fresh/?type=deb-x86_64&version=5.0&lang=zh-CN) * [Linux x64 (rpm)](https://www.libreoffice.org/download/libreoffice-fresh/?type=rpm-x86_64&version=5.0&lang=zh-CN) * [Linux x86 (deb)](https://www.libreoffice.org/download/libreoffice-fresh/?type=deb-x86&version=5.0&lang=zh-CN) * [Linux x86 (rpm)](https://www.libreoffice.org/download/libreoffice-fresh/?type=rpm-x86&version=5.0&lang=zh-CN) * [Mac OS X x86\_64 (10.8 or newer required)](https://www.libreoffice.org/download/libreoffice-fresh/?type=mac-x86_64&version=5.0&lang=zh-CN) * [Windows](https://www.libreoffice.org/download/libreoffice-fresh/?type=win-x86&version=5.0&lang=zh-CN) * [Windows x86\_64 (Vista or newer required)](https://www.libreoffice.org/download/libreoffice-fresh/?type=win-x86_64&version=5.0&lang=zh-CN) 如果需要,还可以下载简体中文及其他语言的语言包。
301
Moved Permanently
null
5,967
无忧之道:Docker中容器的备份、恢复和迁移
http://linoxide.com/linux-how-to/backup-restore-migrate-containers-docker/
2015-08-06T15:02:00
[ "Docker", "备份" ]
/article-5967-1.html
今天,我们将学习如何快速地对docker容器进行快捷备份、恢复和迁移。[Docker](http://docker.com/)是一个开源平台,用于自动化部署应用,以通过快捷的途径在称之为容器的轻量级软件层下打包、发布和运行这些应用。它使得应用平台独立,因为它扮演了Linux上一个额外的操作系统级虚拟化的自动化抽象层。它通过其组件cgroups和命名空间利用Linux内核的资源分离特性,达到避免虚拟机开销的目的。它使得用于部署和扩展web应用、数据库和后端服务的大规模构建组件无需依赖于特定的堆栈或供应者。 所谓的容器,就是那些创建自Docker镜像的软件层,它包含了独立的Linux文件系统和开箱即用的应用程序。如果我们有一个在机器中运行着的Docker容器,并且想要备份这些容器以便今后使用,或者想要迁移这些容器,那么,本教程将帮助你掌握在Linux操作系统中备份、恢复和迁移Docker容器的方法。 我们怎样才能在Linux中备份、恢复和迁移Docker容器呢?这里为您提供了一些便捷的步骤。 ![](/data/attachment/album/201508/06/150254mhn96itvroqvii7h.jpg) ### 1. 备份容器 首先,为了备份Docker中的容器,我们会想看看我们想要备份的容器列表。要达成该目的,我们需要在我们运行着Docker引擎,并已创建了容器的Linux机器中运行 docker ps 命令。 ``` # docker ps ``` ![Docker Containers List](/data/attachment/album/201508/06/150330zol6ccce162e68fj.png) 在此之后,我们要选择我们想要备份的容器,然后去创建该容器的快照。我们可以使用 docker commit 命令来创建快照。 ``` # docker commit -p 30b8f18f20b4 container-backup ``` ![Docker Commit](/data/attachment/album/201508/06/150303qs8zk2e4zhk2f8t6.png) 该命令会生成一个作为Docker镜像的容器快照,我们可以通过运行 `docker images` 命令来查看Docker镜像,如下。 ``` # docker images ``` ![Docker Images](/data/attachment/album/201508/06/150303ipxzj8jdj6z7vxdx.png) 正如我们所看见的,上面做的快照已经作为Docker镜像保存了。现在,为了备份该快照,我们有两个选择,一个是我们可以登录进Docker注册中心,并推送该镜像;另一个是我们可以将Docker镜像打包成tar包备份,以供今后使用。 如果我们想要在[Docker注册中心](https://registry.hub.docker.com/)上传或备份镜像,我们只需要运行 docker login 命令来登录进Docker注册中心,然后推送所需的镜像即可。 ``` # docker login ``` ![Docker Login](/data/attachment/album/201508/06/150304qlwwhm09wjxmm90j.png) ``` # docker tag a25ddfec4d2a arunpyasi/container-backup:test # docker push arunpyasi/container-backup ``` ![Docker Push](/data/attachment/album/201508/06/150305w2ne8mepz384pr8p.png) 如果我们不想备份到docker注册中心,而是想要将此镜像保存在本地机器中,以供日后使用,那么我们可以将其作为tar包备份。要完成该操作,我们需要运行以下 `docker save` 命令。 ``` # docker save -o ~/container-backup.tar container-backup ``` ![taking tarball backup](/data/attachment/album/201508/06/150305ny9hfp8sh6a6ztsl.png) 要验证tar包是否已经生成,我们只需要在保存tar包的目录中运行 ls 命令即可。 ### 2. 恢复容器 接下来,在我们成功备份了我们的Docker容器后,我们现在来恢复这些制作了Docker镜像快照的容器。如果我们已经在注册中心推送了这些Docker镜像,那么我们仅仅需要把那个Docker镜像拖回并直接运行即可。 ``` # docker pull arunpyasi/container-backup:test ``` ![Docker Pull](/data/attachment/album/201508/06/150306cj02bjad995b5pj2.png) 但是,如果我们将这些Docker镜像作为tar包文件备份到了本地,那么我们只要使用 docker load 命令,后面加上tar包的备份路径,就可以加载该Docker镜像了。 ``` # docker load -i ~/container-backup.tar ``` 现在,为了确保这些Docker镜像已经加载成功,我们来运行 docker images 命令。 ``` # docker images ``` 在镜像被加载后,我们将用加载的镜像去运行Docker容器。 ``` # docker run -d -p 80:80 container-backup ``` ![Restoring Docker Tarball](/data/attachment/album/201508/06/150306eldly0e1ud1pllvb.png) ### 3. 迁移Docker容器 迁移容器同时涉及到了上面两个操作,备份和恢复。我们可以将任何一个Docker容器从一台机器迁移到另一台机器。在迁移过程中,首先我们将把容器备份为Docker镜像快照。然后,该Docker镜像或者是被推送到了Docker注册中心,或者被作为tar包文件保存到了本地。如果我们将镜像推送到了Docker注册中心,我们简单地从任何我们想要的机器上使用 docker run 命令来恢复并运行该容器。但是,如果我们将镜像打包成tar包备份到了本地,我们只需要拷贝或移动该镜像到我们想要的机器上,加载该镜像并运行需要的容器即可。 ### 尾声 最后,我们已经学习了如何快速地备份、恢复和迁移Docker容器,本教程适用于各个可以成功运行Docker的操作系统平台。真的,Docker是一个相当简单易用,然而功能却十分强大的工具。它的命令相当易记,这些命令都非常短,带有许多简单而强大的标记和参数。上面的方法让我们备份容器时很是安逸,使得我们可以在日后很轻松地恢复它们。这会帮助我们恢复我们的容器和镜像,即便主机系统崩溃,甚至意外地被清除。如果你还有很多问题、建议、反馈,请在下面的评论框中写出来吧,可以帮助我们改进或更新我们的内容。谢谢大家!享受吧 :-) --- via: <http://linoxide.com/linux-how-to/backup-restore-migrate-containers-docker/> 作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/backup-restore-migrate-containers-docker/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c5e10>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,970
如何监控 NGINX(第一篇)
https://www.datadoghq.com/blog/how-to-monitor-nginx/
2015-08-07T07:30:00
[ "NGINX", "监控" ]
https://linux.cn/article-5970-1.html
![](/data/attachment/album/201508/07/000445fik0uiga75un5qnn.png) ### NGINX 是什么? [NGINX](http://nginx.org/en/) (发音为 “engine X”) 是一种流行的 HTTP 和反向代理服务器。作为一个 HTTP 服务器,NGINX 可以使用较少的内存非常高效可靠地提供静态内容。作为[反向代理](http://nginx.com/resources/glossary/reverse-proxy-server/),它可以用作多个后端服务器或类似缓存和负载平衡这样的其它应用的单一访问控制点。NGINX 是一个自由开源的产品,并有一个具备更全的功能的叫做 NGINX Plus 的商业版。 NGINX 也可以用作邮件代理和通用的 TCP 代理,但本文并不直接讨论 NGINX 的那些用例的监控。 ### NGINX 主要指标 通过监控 NGINX 可以 捕获到两类问题:NGINX 本身的资源问题,和出现在你的基础网络设施的其它问题。大多数 NGINX 用户会用到以下指标的监控,包括**每秒请求数**,它提供了一个由所有最终用户活动组成的上层视图;**服务器错误率** ,这表明你的服务器已经多长没有处理看似有效的请求;还有**请求处理时间**,这说明你的服务器处理客户端请求的总共时长(并且可以看出性能降低或当前环境的其他问题)。 更一般地,至少有三个主要的指标类别来监视: * 基本活动指标 * 错误指标 * 性能指标 下面我们将分析在每个类别中最重要的 NGINX 指标,以及用一个相当普遍但是值得特别提到的案例来说明:使用 NGINX Plus 作反向代理。我们还将介绍如何使用图形工具或可选择的监控工具来监控所有的指标。 本文引用指标术语[来自我们的“监控 101 系列”](https://www.datadoghq.com/blog/monitoring-101-collecting-data/),,它提供了一个指标收集和警告框架。 #### 基本活跃指标 无论你在怎样的情况下使用 NGINX,毫无疑问你要监视服务器接收多少客户端请求和如何处理这些请求。 NGINX Plus 上像开源 NGINX 一样可以报告基本活跃指标,但它也提供了略有不同的辅助模块。我们首先讨论开源的 NGINX,再来说明 NGINX Plus 提供的其他指标的功能。 **NGINX** 下图显示了一个客户端连接的过程,以及开源版本的 NGINX 如何在连接过程中收集指标。 ![connection, request states](/data/attachment/album/201508/07/000449auf93aker1oze8ca.png) Accepts(接受)、Handled(已处理)、Requests(请求数)是一直在增加的计数器。Active(活跃)、Waiting(等待)、Reading(读)、Writing(写)随着请求量而增减。 | 名称 | 描述 | [指标类型](https://www.datadoghq.com/blog/monitoring-101-collecting-data/) | | --- | --- | --- | | Accepts(接受) | NGINX 所接受的客户端连接数 | 资源: 功能 | | Handled(已处理) | 成功的客户端连接数 | 资源: 功能 | | Active(活跃) | 当前活跃的客户端连接数 | 资源: 功能 | | Dropped(已丢弃,计算得出) | 丢弃的连接数(接受 - 已处理) | 工作:错误\* | | Requests(请求数) | 客户端请求数 | 工作:吞吐量 | *\*严格的来说,丢弃的连接是 [一个资源饱和指标](https://www.datadoghq.com/blog/monitoring-101-collecting-data/#resource-metrics),但是因为饱和会导致 NGINX 停止服务(而不是延后该请求),所以,“已丢弃”视作 [一个工作指标](https://www.datadoghq.com/blog/monitoring-101-collecting-data/#work-metrics) 比较合适。* NGINX worker 进程接受 OS 的连接请求时 **Accepts** 计数器增加,而**Handled** 是当实际的请求得到连接时(通过建立一个新的连接或重新使用一个空闲的)。这两个计数器的值通常都是相同的,如果它们有差别则表明连接被**Dropped**,往往这是由于资源限制,比如已经达到 NGINX 的[worker\_connections](http://nginx.org/en/docs/ngx_core_module.html#worker_connections)的限制。 一旦 NGINX 成功处理一个连接时,连接会移动到**Active**状态,在这里对客户端请求进行处理: Active状态 * **Waiting**: 活跃的连接也可以处于 Waiting 子状态,如果有在此刻没有活跃请求的话。新连接可以绕过这个状态并直接变为到 Reading 状态,最常见的是在使用“accept filter(接受过滤器)” 和 “deferred accept(延迟接受)”时,在这种情况下,NGINX 不会接收 worker 进程的通知,直到它具有足够的数据才开始响应。如果连接设置为 keep-alive ,那么它在发送响应后将处于等待状态。 * **Reading**: 当接收到请求时,连接离开 Waiting 状态,并且该请求本身使 Reading 状态计数增加。在这种状态下 NGINX 会读取客户端请求首部。请求首部是比较小的,因此这通常是一个快速的操作。 * **Writing**: 请求被读取之后,其使 Writing 状态计数增加,并保持在该状态,直到响应返回给客户端。这意味着,该请求在 Writing 状态时, 一方面 NGINX 等待来自上游系统的结果(系统放在 NGINX “后面”),另外一方面,NGINX 也在同时响应。请求往往会在 Writing 状态花费大量的时间。 通常,一个连接在同一时间只接受一个请求。在这种情况下,Active 连接的数目 == Waiting 的连接 + Reading 请求 + Writing 。然而,较新的 SPDY 和 HTTP/2 协议允许多个并发请求/响应复用一个连接,所以 Active 可小于 Waiting 的连接、 Reading 请求、Writing 请求的总和。 (在撰写本文时,NGINX 不支持 HTTP/2,但预计到2015年期间将会支持。) **NGINX Plus** 正如上面提到的,所有开源 NGINX 的指标在 NGINX Plus 中是可用的,但另外也提供其他的指标。本节仅说明了 NGINX Plus 可用的指标。 ![connection, request states](/data/attachment/album/201508/07/000451ckrxmestxlel80e0.png) Accepted (已接受)、Dropped,总数是不断增加的计数器。Active、 Idle(空闲)和处于 Current(当前)处理阶段的各种状态下的连接或请​​求的当前数量随着请求量而增减。 | 名称 | 描述 | [指标类型](https://www.datadoghq.com/blog/monitoring-101-collecting-data/) | | --- | --- | --- | | Accepted(已接受) | NGINX 所接受的客户端连接数 | 资源: 功能 | | Dropped(已丢弃) | 丢弃的连接数(接受 - 已处理) | 工作:错误\* | | Active(活跃) | 当前活跃的客户端连接数 | 资源: 功能 | | Idle(空闲) | 没有当前请求的客户端连接 | 资源: 功能 | | Total(全部请求数) | 客户端请求数 | 工作:吞吐量 | *\*严格的来说,丢弃的连接是 [一个资源饱和指标](https://www.datadoghq.com/blog/monitoring-101-collecting-data/#resource-metrics),但是因为饱和会导致 NGINX 停止服务(而不是延后该请求),所以,“已丢弃”视作 [一个工作指标](https://www.datadoghq.com/blog/monitoring-101-collecting-data/#work-metrics) 比较合适。* 当 NGINX Plus worker 进程接受 OS 的连接请求时 **Accepted** 计数器递增。如果 worker 进程为请求建立连接失败(通过建立一个新的连接或重新使用一个空闲),则该连接被丢弃, **Dropped** 计数增加。通常连接被丢弃是因为资源限制,如 NGINX Plus 的[worker\_connections](http://nginx.org/en/docs/ngx_core_module.html#worker_connections)的限制已经达到。 **Active** 和 **Idle** 和[如上所述](https://www.datadoghq.com/blog/how-to-monitor-nginx/#active-state)的开源 NGINX 的“active” 和 “waiting”状态是相同的,但是有一点关键的不同:在开源 NGINX 上,“waiting”状态包括在“active”中,而在 NGINX Plus 上“idle”的连接被排除在“active” 计数外。**Current** 和开源 NGINX 是一样的也是由“reading + writing” 状态组成。 **Total** 为客户端请求的累积计数。请注意,单个客户端连接可涉及多个请求,所以这个数字可能会比连接的累计次数明显大。事实上,(total / accepted)是每个连接的平均请求数量。 **开源 和 Plus 之间指标的不同** | NGINX (开源) | NGINX Plus | | --- | --- | | accepts | accepted | | dropped 通过计算得来 | dropped 直接得到 | | reading + writing | current | | waiting | idle | | active (包括 “waiting”状态) | active (排除 “idle” 状态) | | requests | total | **提醒指标: 丢弃连接** 被丢弃的连接数目等于 Accepts 和 Handled 之差(NGINX 中),或是可直接得到的标准指标(NGINX Plus 中)。在正常情况下,丢弃连接数应该是零。如果在每个单位时间内丢弃连接的速度开始上升,那么应该看看是否资源饱和了。 ![Dropped connections](/data/attachment/album/201508/07/000453a6646l6a881rk8cc.png) **提醒指标: 每秒请求数** 按固定时间间隔采样你的请求数据(开源 NGINX 的**requests**或者 NGINX Plus 中**total**) 会提供给你单位时间内(通常是分钟或秒)所接受的请求数量。监测这个指标可以查看进入的 Web 流量尖峰,无论是合法的还是恶意的,或者突然的下降,这通常都代表着出现了问题。每秒请求数若发生急剧变化可以提醒你的环境出现问题了,即使它不能告诉你确切问题的位置所在。请注意,所有的请求都同样计数,无论 URL 是什么。 ![Requests per second](/data/attachment/album/201508/07/000455lrd5dkdhhsyhkszh.png) **收集活跃指标** 开源的 NGINX 提供了一个简单状态页面来显示基本的服务器指标。该状态信息以标准格式显示,实际上任何图形或监控工具可以被配置去解析这些相关数据,以用于分析、可视化、或提醒。NGINX Plus 提供一个 JSON 接口来供给更多的数据。阅读相关文章“[NGINX 指标收集](/article-5985-1.html)”来启用指标收集的功能。 #### 错误指标 | 名称 | 描述 | [指标类型](https://www.datadoghq.com/blog/monitoring-101-collecting-data/) | 可用于 | | --- | --- | --- | --- | | 4xx 代码 | 客户端错误计数 | 工作:错误 | NGINX 日志, NGINX Plus | | 5xx 代码 | 服务器端错误计数 | 工作:错误 | NGINX 日志, NGINX Plus | NGINX 错误指标告诉你服务器是否经常返回错误而不是正常工作。客户端错误返回4XX状态码,服务器端错误返回5XX状态码。 **提醒指标: 服务器错误率** 服务器错误率等于在单位时间(通常为一到五分钟)内5xx错误状态代码的总数除以[状态码](http://www.w3.org/Protocols/rfc2616/rfc2616-sec10.html)(1XX,2XX,3XX,4XX,5XX)的总数。如果你的错误率随着时间的推移开始攀升,调查可能的原因。如果突然增加,可能需要采取紧急行动,因为客户端可能收到错误信息。 ![Server error rate](/data/attachment/album/201508/07/000457u3kky9ek6ffof3oa.png) 关于客户端错误的注意事项:虽然监控4XX是很有用的,但从该指标中你仅可以捕捉有限的信息,因为它只是衡量客户的行为而不捕捉任何特殊的 URL。换句话说,4xx出现的变化可能是一个信号,例如网络扫描器正在寻找你的网站漏洞时。 **收集错误度量** 虽然开源 NGINX 不能马上得到用于监测的错误率,但至少有两种方法可以得到: * 使用商业支持的 NGINX Plus 提供的扩展状态模块 * 配置 NGINX 的日志模块将响应码写入访问日志 关于这两种方法,请阅读相关文章“[NGINX 指标收集](/article-5985-1.html)”。 #### 性能指标 | 名称 | 描述 | [指标类型](https://www.datadoghq.com/blog/monitoring-101-collecting-data/) | 可用于 | | --- | --- | --- | --- | | request time (请求处理时间) | 处理每个请求的时间,单位为秒 | 工作:性能 | NGINX 日志 | **提醒指标: 请求处理时间** 请求处理时间指标记录了 NGINX 处理每个请求的时间,从读到客户端的第一个请求字节到完成请求。较长的响应时间说明问题在上游。 **收集处理时间指标** NGINX 和 NGINX Plus 用户可以通过添加 $request\_time 变量到访问日志格式中来捕​​捉处理时间数据。关于配置日志监控的更多细节在[NGINX指标收集](/article-5985-1.html)。 #### 反向代理指标 | 名称 | 描述 | [指标类型](https://www.datadoghq.com/blog/monitoring-101-collecting-data/) | 可用于 | | --- | --- | --- | --- | | 上游服务器的活跃链接 | 当前活跃的客户端连接 | 资源:功能 | NGINX Plus | | 上游服务器的 5xx 错误代码 | 服务器错误 | 工作:错误 | NGINX Plus | | 每个上游组的可用服务器 | 服务器传递健康检查 | 资源:可用性 | NGINX Plus | [反向代理](https://en.wikipedia.org/wiki/Reverse_proxy)是 NGINX 最常见的使用方法之一。商业支持的 NGINX Plus 显示了大量有关后端(或“上游 upstream”)的服务器指标,这些与反向代理设置相关的。本节重点介绍了几个 NGINX Plus 用户可用的关键上游指标。 NGINX Plus 首先将它的上游指标按组分开,然后是针对单个服务器的。因此,例如,你的反向代理将请求分配到五个上游的 Web 服务器上,你可以一眼看出是否有单个服务器压力过大,也可以看出上游组中服务器的健康状况,以确保良好的响应时间。 **活跃指标** **每上游服务器的活跃连接**的数量可以帮助你确认反向代理是否正确的分配工作到你的整个服务器组上。如果你正在使用 NGINX 作为负载均衡器,任何一台服务器处理的连接数的明显偏差都可能表明服务器正在努力消化请求,或者是你配置使用的负载均衡的方法(例如[round-robin 或 IP hashing](http://nginx.com/blog/load-balancing-with-nginx-plus/))不是最适合你流量模式的。 **错误指标** 错误指标,上面所说的高于5XX(服务器错误)状态码,是监控指标中有价值的一个,尤其是响应码部分。 NGINX Plus 允许你轻松地提取**每个上游服务器的 5xx 错误代码**的数量,以及响应的总数量,以此来确定某个特定服务器的错误率。 **可用性指标** 对于 web 服务器的运行状况,还有另一种角度,NGINX 可以通过**每个组中当前可用服务器的总量**很方便监控你的上游组的健康。在一个大的反向代理上,你可能不会非常关心其中一个服务器的当前状态,就像你只要有可用的服务器组能够处理当前的负载就行了。但监视上游组内的所有工作的服务器总量可为判断 Web 服务器的健康状况提供一个更高层面的视角。 **收集上游指标** NGINX Plus 上游指标显示在内部 NGINX Plus 的监控仪表盘上,并且也可通过一个JSON 接口来服务于各种外部监控平台。在我们的相关文章“[NGINX指标收集](/article-5985-1.html)”中有个例子。 ### 结论 在这篇文章中,我们已经谈到了一些有用的指标,你可以使用表格来监控 NGINX 服务器。如果你是刚开始使用 NGINX,监控下面提供的大部分或全部指标,可以让你很好的了解你的网络基础设施的健康和活跃程度: * [已丢弃的连接](https://www.datadoghq.com/blog/how-to-monitor-nginx/#dropped-connections) * [每秒请求数](https://www.datadoghq.com/blog/how-to-monitor-nginx/#requests-per-second) * [服务器错误率](https://www.datadoghq.com/blog/how-to-monitor-nginx/#server-error-rate) * [请求处理数据](https://www.datadoghq.com/blog/how-to-monitor-nginx/#request-processing-time) 最终,你会学到更多,更专业的衡量指标,尤其是关于你自己基础设施和使用情况的。当然,监控哪一项指标将取决于你可用的工具。参见相关的文章来[逐步指导你的指标收集](/article-5985-1.html),不管你使用 NGINX 还是 NGINX Plus。 在 Datadog 中,我们已经集成了 NGINX 和 NGINX Plus,这样你就可以以最少的设置来收集和监控所有 Web 服务器的指标。 [在本文中](https://www.datadoghq.com/blog/how-to-monitor-nginx-with-datadog/)了解如何用 NGINX Datadog来监控,并开始[免费试用 Datadog](https://www.datadoghq.com/blog/how-to-monitor-nginx/#sign-up)吧。 ### 诚谢 在文章发表之前非常感谢 NGINX 团队审阅这篇,并提供重要的反馈和说明。 --- via: <https://www.datadoghq.com/blog/how-to-monitor-nginx/> 作者:K Young 译者:[strugglingyouth](https://github.com/strugglingyouth) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
200
OK
[What is NGINX?](#what-is-nginx) [NGINX](http://nginx.org/en/) (pronounced “engine X”) is a popular HTTP server and reverse proxy server. As an HTTP server, NGINX serves static content very efficiently and reliably, using relatively little memory. As a [reverse proxy](http://nginx.com/resources/glossary/reverse-proxy-server/), it can be used as a single, controlled point of access for multiple back-end servers or for additional applications such as caching and load balancing. NGINX is available as a free, open source product or in a more full-featured, commercially distributed version called NGINX Plus. NGINX can also be used as a mail proxy and a generic TCP proxy, but this article does not directly address NGINX monitoring for these use cases. [Key NGINX metrics](#key-nginx-metrics) By monitoring NGINX you can catch two categories of issues: resource issues within NGINX itself, and also problems developing elsewhere in your web infrastructure. Some of the metrics most NGINX users will benefit from monitoring include **requests per second**, which provides a high-level view of combined end-user activity; **server error rate**, which indicates how often your servers are failing to process seemingly valid requests; and **request processing time**, which describes how long your servers are taking to process client requests (and which can point to slowdowns or other problems in your environment). More generally, there are at least three key categories of metrics to watch: Below we’ll break down a few of the most important NGINX metrics in each category, as well as metrics for a fairly common use case that deserves special mention: using NGINX Plus for reverse proxying. We will also describe how you can monitor all of these metrics with your graphing or monitoring tools of choice. This article references metric terminology [introduced in our Monitoring 101 series](https://www.datadoghq.com/blog/monitoring-101-collecting-data/), which provides a framework for metric collection and alerting. [Basic activity metrics](#basic-activity-metrics) Whatever your NGINX use case, you will no doubt want to monitor how many client requests your servers are receiving and how those requests are being processed. NGINX Plus can report basic activity metrics exactly like open source NGINX, but it also provides a secondary module that reports metrics slightly differently. We discuss open source NGINX first, then the additional reporting capabilities provided by NGINX Plus. [NGINX](#nginx) The diagram below shows the lifecycle of a client connection and how the open source version of NGINX [collects metrics](http://nginx.org/en/docs/http/ngx_http_stub_status_module.html) during a connection. Accepts, handled, and requests are ever-increasing counters. Active, waiting, reading, and writing grow and shrink with request volume. Name | Description | | accepts | Count of client connections attempted by NGINX | Resource: Utilization | handled | Count of successful client connections | Resource: Utilization | active | Currently active client connections | Resource: Utilization | dropped (calculated) | Count of dropped connections (accepts – handled) | Work: Errors | requests | Count of client requests | Work: Throughput | *Strictly speaking, dropped connections is | The **accepts** counter is incremented when an NGINX worker picks up a request for a connection from the OS. If the worker fails to get a connection for the request (by establishing a new connection or reusing an open one), then the connection is dropped and **dropped** is incremented. Ordinarily connections are dropped because a resource limit, such as NGINX’s [worker_connections](http://nginx.org/en/docs/ngx_core_module.html#worker_connections) limit has been reached. **Waiting:**An active connection may also be in a Waiting substate if there is no active request at the moment. New connections can bypass this state and move directly to Reading, most commonly when using “accept filter” or “deferred accept”, in which case NGINX does not receive notice of work until it has enough data to begin working on the response. Connections will also be in the Waiting state after sending a response if the connection is set to keep-alive.**Reading:**When a request is received, the connection moves out of the waiting state, and the request itself is counted as Reading. In this state NGINX is reading a client request header. Request headers are lightweight, so this is usually a fast operation.**Writing:**After the request is read, it is counted as Writing, and remains in that state until a response is returned to the client. That means that the request is Writing while NGINX is waiting for results from upstream systems (systems “behind” NGINX), and while NGINX is operating on the response. Requests will often spend the majority of their time in the Writing state. Often a connection will only support one request at a time. In this case, the number of Active connections == Waiting connections + Reading requests + Writing requests. However, HTTP/2 allows multiple concurrent requests/responses to be multiplexed over a connection, so Active may be less than the sum of Waiting, Reading, and Writing. #### NGINX Plus As mentioned above, all of open source NGINX’s metrics are available within NGINX Plus, but Plus can also report additional metrics. The section covers the metrics that are only available from NGINX Plus. Accepted, dropped, and total are ever-increasing counters. Active, idle, and current track the current number of connections or requests in each of those states, so they grow and shrink with request volume. Name | Description | | ---|---|---| accepted | Count of client connections attempted by NGINX | Resource: Utilization | dropped (calculated) | Count of dropped connections | Work: Errors | active | Currently active client connections | Resource: Utilization | idle | Client connections with zero current requests | Resource: Utilizations | Total | Count of client requests | Work: Throughput | *Strictly speaking, dropped connections is | The **accepted** counter is incremented when an NGINX Plus worker picks up a request for a connection from the OS. If the worker fails to get a connection for the request (by establishing a new connection or reusing an open one), then the connection is dropped and dropped is incremented. Ordinarily connections are dropped because a resource limit, such as NGINX Plus’s worker_connections limit, has been reached. **Active** and **idle** are the same as “active” and “waiting” states in open source NGINX as described above, with one key exception: in open source NGINX, “waiting” falls under the “active” umbrella, whereas in NGINX Plus “idle” connections are excluded from the “active” count. **Current** is the same as the combined “reading + writing” states in open source NGINX. **Total** is a cumulative count of client requests. Note that a single client connection can involve multiple requests, so this number may be significantly larger than the cumulative number of connections. In fact, (total / accepted) yields the average number of requests per connection. NGINX (open source) | NGINX Plus | ---|---| accepts | accepted | dropped must be calculated | dropped is reported directly | reading + writing | current | waiting | idle | active (includes “waiting” states) | active (excludes “idle” states) | requests | total | **Metric to alert on: Dropped connections** **Metric to alert on: Dropped connections** The number of connections that have been dropped is equal to the difference between accepts and handled (NGINX) or is exposed directly as a standard metric (NGINX Plus). Under normal circumstances, dropped connections should be zero. If your rate of dropped connections per unit time starts to rise, look for possible resource saturation. **Metric to alert on: Requests per second** **Metric to alert on: Requests per second** Sampling your request data (**requests** in open source, or **total** in Plus) with a fixed time interval provides you with the number of requests you’re receiving per unit of time—often minutes or seconds. Monitoring this metric can alert you to spikes in incoming web traffic, whether legitimate or nefarious, or sudden drops, which are usually indicative of problems. A drastic change in requests per second can alert you to problems brewing somewhere in your environment, even if it cannot tell you exactly where those problems lie. Note that all requests are counted the same, regardless of their URLs. [Collecting activity metrics](#collecting-activity-metrics) Open source NGINX exposes these basic server metrics on a simple status page. Because the status information is displayed in a standardized form, virtually any graphing or monitoring tool can be configured to parse the relevant data for analysis, visualization, or alerting. NGINX Plus provides a JSON feed with much richer data. Read the companion post on [NGINX metrics collection](https://www.datadoghq.com/blog/how-to-collect-nginx-metrics/) for instructions on enabling metrics collection. [Error metrics](#error-metrics) Name | Description | | Availability | ---|---|---|---| 4xx codes | Count of client errors such as "403 Forbidden" or "404 Not Found" | Work: Errors | NGINX logs, NGINX Plus | 5xx codes | Count of server errors such as "500 Internal Server Error" or "502 Bad Gateway" | Work: Errors | NGINX logs, NGINX Plus | NGINX error metrics tell you how often your servers are returning errors instead of producing useful work. Client errors are represented by 4xx status codes, server errors with 5xx status codes. **Metric to alert on: Server error rate** **Metric to alert on: Server error rate** Your server error rate is equal to the number of 5xx errors, such as “502 Bad Gateway”, divided by the total number of [status codes](http://www.w3.org/Protocols/rfc2616/rfc2616-sec10.html) (1xx, 2xx, 3xx, 4xx, 5xx), per unit of time (often one to five minutes). If your error rate starts to climb over time, investigation may be in order. If it spikes suddenly, urgent action may be required, as clients are likely to report errors to the end user. A note on client errors: while it is tempting to monitor 4xx, there is limited information you can derive from that metric since it measures client behavior without offering any insight into particular URLs. In other words, a change in 4xx could be noise, e.g., web scanners blindly looking for vulnerabilities. [Collecting error metrics](#collecting-error-metrics) Although open source NGINX does not make error rates immediately available for monitoring, there are at least two ways to capture that information: - Use the expanded status module available with commercially supported NGINX Plus - Configure NGINX’s log module to write response codes in access log Read the companion post on NGINX metrics collection for detailed instructions on both approaches. [Performance metrics](#performance-metrics) Name | Description | | Availability | ---|---|---|---| request time | Time to process each request, in seconds | Work: Performance | NGINX logs | **Metric to alert on: Request processing time** **Metric to alert on: Request processing time** The request time metric logged by NGINX records the processing time for each request, from the reading of the first client bytes to fulfilling the request. Long response times can point to problems upstream. [Collecting processing time metrics](#collecting-processing-time-metrics) NGINX and NGINX Plus users can capture data on processing time by adding the `$request_time` variable to the access log format. More details on configuring logs for monitoring are available in our companion post on [NGINX metrics collection](https://www.datadoghq.com/blog/how-to-collect-nginx-metrics/). [Reverse proxy metrics](#reverse-proxy-metrics) Name | Description | | Availability | ---|---|---|---| Active connections by upstream server | Currently active client connections | Resource: Utilization | NGINX Plus | 5xx codes by upstream server | Server errors | Work: Errors | NGINX Plus | Available servers per upstream group | Servers passing health checks | Resource: Availability | NGINX Plus | One of the most common ways to use NGINX is as a [reverse proxy](https://en.wikipedia.org/wiki/Reverse_proxy). The commercially supported NGINX Plus exposes a large number of metrics about backend (or “upstream”) servers, which are relevant to a reverse proxy setup. This section highlights a few of the key upstream metrics that are available to users of NGINX Plus. NGINX Plus segments its upstream metrics first by group, and then by individual server. So if, for example, your reverse proxy is distributing requests to five upstream web servers, you can see at a glance whether any of those individual servers is overburdened, and also whether you have enough healthy servers in the upstream group to ensure good response times. **Activity metrics** **Activity metrics** The number of **active connections per upstream server** can help you verify that your reverse proxy is properly distributing work across your server group. If you are using NGINX as a load balancer, significant deviations in the number of connections handled by any one server can indicate that the server is struggling to process requests in a timely manner or that the load balancing method (e.g., [round-robin or IP hashing](http://nginx.com/blog/load-balancing-with-nginx-plus/)) you have configured is not optimal for your traffic patterns. [Error metrics](#error-metrics-1) Recall from the error metric section above that 5xx (server error) codes, such as “502 Bad Gateway” or “503 Service Temporarily Unavailable”, are a valuable metric to monitor, particularly as a share of total response codes. NGINX Plus allows you to easily extract the number of **5xx codes per upstream server**, as well as the total number of responses, to determine that particular server’s error rate. **Availability metrics** **Availability metrics** For another view of the health of your web servers, NGINX also makes it simple to monitor the health of your upstream groups via the total number of **servers currently available within each group**. In a large reverse proxy setup, you may not care very much about the current state of any one server, just as long as your pool of available servers is capable of handling the load. But monitoring the total number of servers that are up within each upstream group can provide a very high-level view of the aggregate health of your web servers. **Collecting upstream metrics** **Collecting upstream metrics** NGINX Plus upstream metrics are exposed on the internal NGINX Plus monitoring dashboard, and are also available via a JSON interface that can serve up metrics into virtually any external monitoring platform. See examples in our companion post on [collecting NGINX metrics](https://www.datadoghq.com/blog/how-to-collect-nginx-metrics/). [Conclusion](#conclusion) In this post we’ve touched on some of the most useful metrics you can monitor to keep tabs on your NGINX servers. If you are just getting started with NGINX, monitoring most or all of the metrics in the list below will provide good visibility into the health and activity levels of your web infrastructure: Eventually you will recognize additional, more specialized metrics that are particularly relevant to your own infrastructure and use cases. Of course, what you monitor will depend on the tools you have and the metrics available to you. See the companion post for [step-by-step instructions on metric collection](https://www.datadoghq.com/blog/how-to-collect-nginx-metrics/), whether you use NGINX or NGINX Plus. At Datadog, we have built integrations with both NGINX and NGINX Plus so that you can begin collecting and monitoring metrics from all your web servers with a minimum of setup. Monitor NGINX with Datadog [in this post](https://www.datadoghq.com/blog/how-to-monitor-nginx-with-datadog/), and get started right away with [a free trial of Datadog](https://app.datadoghq.com/signup). [Acknowledgments](#acknowledgments) Many thanks to the NGINX team for reviewing this article prior to publication and providing important feedback and clarifications. *Source Markdown for this post is available on GitHub. Questions, corrections, additions, etc.? Please let us know.*
5,971
选择成为软件开发工程师的5个原因
http://henrikwarne.com/2014/12/08/5-reasons-why-software-developer-is-a-great-career-choice/
2015-08-07T07:53:00
[ "程序员" ]
https://linux.cn/article-5971-1.html
![](/data/attachment/album/201508/07/074914yi6aja4j66l68i34.jpg) 这个星期我将给本地一所高中做一次有关于程序猿是怎样工作的演讲。我是志愿(由 [Transfer](http://www.transfer.nu/omoss/transferinenglish.jspx?pageId=23) 组织的)来到这所学校谈论我的工作的。这个学校本周将有一个技术主题日,并且他们很想听听科技行业是怎样工作的。因为我是从事软件开发的,这也是我将和学生们讲的内容。演讲的其中一部分是我为什么觉得软件开发是一个很酷的职业。主要原因如下: ### 5个原因 **1、创造性** **![](/data/attachment/album/201508/07/075221beplt5x7xg7ns7xx.jpg)** 如果你问别人创造性的工作有哪些,别人通常会说像作家,音乐家或者画家那样的(工作)。但是极少有人知道软件开发也是一项非常具有创造性的工作。它是最符合创造性定义的了,因为你创造了一个以前没有的新功能。这种解决方案可以在整体和细节上以很多形式来展现。我们经常会遇到一些需要做权衡的场景(比如说运行速度与内存消耗的权衡)。当然前提是这种解决方案必须是正确的。这些所有的行为都是需要强大的创造性的。 **2、协作性** **![](/data/attachment/album/201508/07/075221a6dd5nn2d62i5hi5.jpg)** 另外一个表象是程序猿们独自坐在他们的电脑前,然后撸一天的代码。但是软件开发事实上通常总是一个团队努力的结果。你会经常和你的同事讨论编程问题以及解决方案,并且和产品经理、测试人员、客户讨论需求以及其他问题。 经常有人说,结对编程(2个开发人员一起在一个电脑上编程)是一种流行的最佳实践。 **3、高需性** **![](/data/attachment/album/201508/07/075221z045xx40g8gb8yke.jpg)** 世界上越来越多的人在用软件,正如 [Marc Andreessen](https://en.wikipedia.org/wiki/Marc_Andreessen) 所说 " [软件正在吞噬世界](http://www.wsj.com/articles/SB10001424053111903480904576512250915629460) "。虽然程序猿现在的数量非常巨大(在斯德哥尔摩,程序猿现在是 [最普遍的职业](http://www.di.se/artiklar/2014/6/12/jobbet-som-tar-over-landet/) ),但是,需求量一直处于供不应求的局面。据软件公司说,他们最大的挑战之一就是 [找到优秀的程序猿](http://computersweden.idg.se/2.2683/1.600324/examinationstakten-racker-inte-for-branschens-behov) 。我也经常接到那些想让我跳槽的招聘人员打来的电话。我知道至少除软件行业之外的其他行业的雇主不会那么拼(的去招聘)。 **4、高酬性** **![](/data/attachment/album/201508/07/075222vjlcc38vmm836736.jpg)** 软件开发可以带来不菲的收入。卖一份你已经开发好的软件的额外副本是没有 [边际成本](https://en.wikipedia.org/wiki/Marginal_cost) 的。这个事实与对程序猿的高需求意味着收入相当可观。当然还有许多更捞金的职业,但是相比一般人群,我认为软件开发者确实“日进斗金”(知足吧!骚年~~)。 **5、前瞻性** **![](/data/attachment/album/201508/07/075222epio4i4l8tzg4hkc.jpg)** 有许多工作岗位消失,往往是由于它们可以被计算机和软件代替。但是所有这些新的程序依然需要开发和维护,因此,程序猿的前景还是相当好的。 ### 但是... **外包又是怎么一回事呢?** **![](/data/attachment/album/201508/07/075222ouu3a59jc9jzvjl5.jpg)** 难道所有外包到其他国家的软件开发的薪水都很低吗?这是一个理想丰满,现实骨感的例子(有点像 [瀑布开发模型](https://en.wikipedia.org/wiki/Waterfall_model) )。软件开发基本上跟设计的工作一样,是一个探索发现的工作。它受益于强有力的合作。更进一步说,特别当你的主打产品是软件的时候,你所掌握的开发知识是绝对的优势。知识在整个公司中分享的越容易,那么公司的发展也将越来越好。 换一种方式去看待这个问题。软件外包已经存在了相当一段时间了。但是对本土程序猿的需求量依旧非常高。因为许多软件公司看到了雇佣本土程序猿的带来的收益要远远超过了相对较高的成本(其实还是赚了)。 ### 如何成为人生大赢家 ![](/data/attachment/album/201508/07/075222q6tcwbt3s8k688dx.jpg) 虽然我有许多我认为软件开发是一件非常有趣的事情的理由 (详情见: [为什么我热爱编程](http://henrikwarne.com/2012/06/02/why-i-love-coding/) )。但是这些理由,并不适用于所有人。幸运的是,尝试编程是一件非常容易的事情。在互联网上有数不尽的学习编程的资源。例如,[Coursera](https://www.coursera.org/) 和 [Udacity](https://www.udacity.com/) 都拥有很好的入门课程。如果你从来没有撸过码,可以尝试其中一个免费的课程,找找感觉。 寻找一个既热爱又能谋生的事情至少有2个好处。首先,由于你天天去做,工作将比你简单的只为谋生要有趣的多。其次,如果你真的非常喜欢,你将更好的擅长它。我非常喜欢下面一副关于伟大工作组成的韦恩图(作者 [@eskimon](https://eskimon.wordpress.com/about/)) 。因为编码的薪水确实相当不错,我认为如果你真的喜欢它,你将有一个很好的机会,成为人生的大赢家! ![](/data/attachment/album/201508/07/003306aktlbbnmbgtybsyc.jpg) --- via: <http://henrikwarne.com/2014/12/08/5-reasons-why-software-developer-is-a-great-career-choice/> 作者:[Henrik Warne](http://henrikwarne.com/) 译者:[mousycoder](https://github.com/mousycoder) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,972
如何修复:There is no command installed for 7-zip archive files
http://itsfoss.com/fix-there-is-no-command-installed-for-7-zip-archive-files/
2015-08-08T08:04:00
[ "7zip" ]
https://linux.cn/article-5972-1.html
### 问题 我试着在Ubuntu中安装Emerald图标主题,而这个主题被打包成了.7z归档包。和以往一样,我试着通过在GUI中右击并选择“提取到这里”来将它解压缩。但是Ubuntu 15.04却并没有解压文件,取而代之的,却是丢给了我一个下面这样的错误信息: > > Could not open this file > > > 无法打开该文件 > > > There is no command installed for 7-zip archive files. Do you want to search for a command to open this file? > > > 没有安装用于7-zip归档文件的命令。你是否想要搜索用于来打开该文件的命令? > > > 错误信息看上去是这样的: ![](/data/attachment/album/201508/07/220521g8ha8vhuzjlvvvfu.png) ### 原因 发生该错误的原因从错误信息本身来看就十分明了。7Z,称之为[7-zip](http://www.7-zip.org/)更好,该程序没有安装,因此7Z压缩文件就无法解压缩。这也暗示着Ubuntu默认不支持7-zip文件。 ### 解决方案:在Ubuntu中安装 7zip 要解决该问题也十分简单,在Ubuntu中安装7-Zip包即可。现在,你也许想知道如何在Ubuntu中安装 7Zip吧?好吧,在前面的错误对话框中,如果你右击“Search Command”搜索命令,它会查找可用的 p7zip 包。只要点击“Install”安装,如下图: ![](/data/attachment/album/201508/07/220522o25ulaohrowvh5lx.png) ### 可选方案:在终端中安装 7Zip 如果偏好使用终端,你可以使用以下命令在终端中安装 7zip: ``` sudo apt-get install p7zip-full ``` 注意:在Ubuntu中,你会发现有3个7zip包:p7zip,p7zip-full 和 p7zip-rar。p7zip和p7zip-full的区别在于,p7zip是一个更轻量化的版本,仅仅提供了对 .7z 和 .7za 文件的支持,而完整版则提供了对更多(用于音频文件等的) 7z 压缩算法的支持。对于 p7zip-rar,它除了对 7z 文件的支持外,也提供了对 .rar 文件的支持。 事实上,相同的错误也会发生在[Ubuntu中的RAR文件](http://itsfoss.com/fix-there-is-no-command-installed-for-rar-archive-files/)身上。解决方案也一样,安装正确的程序即可。 希望这篇快文帮助你解决了**Ubuntu 14.04中如何打开 7zip**的谜团。如有任何问题或建议,我们将无任欢迎。 --- via: <http://itsfoss.com/fix-there-is-no-command-installed-for-7-zip-archive-files/> 作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,973
使用 Find 命令来帮你找到那些需要清理的文件
http://www.itworld.com/article/2949898/linux/profiling-your-file-systems.html
2015-08-08T10:37:00
[ "Find" ]
https://linux.cn/article-5973-1.html
![](/data/attachment/album/201508/07/224048z01gtgxpzxm88w58.png) *Credit: Sandra H-S* 有一个问题几乎困扰着所有的文件系统 -- 包括 Unix 和其他的 -- 那就是文件的不断积累。几乎没有人愿意花时间清理掉他们不再使用的文件和整理文件系统,结果,文件变得很混乱,很难找到有用的东西,要使它们运行良好、维护备份、易于管理,这将是一种持久的挑战。 我见过的一种解决问题的方法是建议使用者将所有的数据碎屑创建一个文件集合的总结报告或"概况",来报告诸如所有的文件数量;最老的,最新的,最大的文件;并统计谁拥有这些文件等数据。如果有人看到五年前的一个包含五十万个文件的文件夹,他们可能会去删除哪些文件 -- 或者,至少会归档和压缩。主要问题是太大的文件夹会使人担心误删一些重要的东西。如果有一个描述文件夹的方法能帮助显示文件的性质,那么你就可以去清理它了。 当我准备做 Unix 文件系统的总结报告时,几个有用的 Unix 命令能提供一些非常有用的统计信息。要计算目录中的文件数,你可以使用这样一个 find 命令。 ``` $ find . -type f | wc -l 187534 ``` 虽然查找最老的和最新的文件是比较复杂,但还是相当方便的。在下面的命令,我们使用 find 命令再次查找文件,以文件时间排序并按年-月-日的格式显示,在列表顶部的显然是最老的。 在第二个命令,我们做同样的,但打印的是最后一行,这是最新的。 ``` $ find -type f -printf '%T+ %p\n' | sort | head -n 1 2006-02-03+02:40:33 ./skel/.xemacs/init.el $ find -type f -printf '%T+ %p\n' | sort | tail -n 1 2015-07-19+14:20:16 ./.bash_history ``` printf 命令输出 %T(文件日期和时间)和 %P(带路径的文件名)参数。 如果我们在查找家目录时,无疑会发现,history 文件(如 .bash\_history)是最新的,这并没有什么用。你可以通过 "un-grepping" 来忽略这些文件,也可以忽略以.开头的文件,如下图所示的。 ``` $ find -type f -printf '%T+ %p\n' | grep -v "\./\." | sort | tail -n 1 2015-07-19+13:02:12 ./isPrime ``` 寻找最大的文件使用 %s(大小)参数,包括文件名(%f),因为这就是我们想要在报告中显示的。 ``` $ find -type f -printf '%s %f \n' | sort -n | uniq | tail -1 20183040 project.org.tar ``` 统计文件的所有者,使用%u(所有者) ``` $ find -type f -printf '%u \n' | grep -v "\./\." | sort | uniq -c 180034 shs 7500 jdoe ``` 如果文件系统能记录上次的访问日期,也将是非常有用的,可以用来看该文件有没有被访问过,比方说,两年之内没访问过。这将使你能明确分辨这些文件的价值。这个最后访问(%a)参数这样使用: ``` $ find -type f -printf '%a+ %p\n' | sort | head -n 1 Fri Dec 15 03:00:30 2006+ ./statreport ``` 当然,如果大多数最近​​访问的文件也是在很久之前的,这看起来你需要处理更多文件了。 ``` $ find -type f -printf '%a+ %p\n' | sort | tail -n 1 Wed Nov 26 03:00:27 2007+ ./my-notes ``` 要想层次分明,可以为一个文件系统或大目录创建一个总结报告,显示这些文件的日期范围、最大的文件、文件所有者们、最老的文件和最新访问时间,可以帮助文件拥有者判断当前有哪些文件夹是重要的哪些该清理了。 --- via: <http://www.itworld.com/article/2949898/linux/profiling-your-file-systems.html> 作者:[Sandra Henry-Stocker](http://www.itworld.com/author/Sandra-Henry_Stocker/) 译者:[strugglingyouth](https://github.com/strugglingyouth) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,975
如何通过反向 SSH 隧道访问 NAT 后面的 Linux 服务器
http://xmodulo.com/access-linux-server-behind-nat-reverse-ssh-tunnel.html
2015-08-08T13:50:00
[ "SSH", "NAT" ]
https://linux.cn/article-5975-1.html
你在家里运行着一台 Linux 服务器,它放在一个 NAT 路由器或者限制性防火墙后面。现在你想在外出时用 SSH 登录到这台服务器。你如何才能做到呢?SSH 端口转发当然是一种选择。但是,如果你需要处理多级嵌套的 NAT 环境,端口转发可能会变得非常棘手。另外,在多种 ISP 特定条件下可能会受到干扰,例如阻塞转发端口的限制性 ISP 防火墙、或者在用户间共享 IPv4 地址的运营商级 NAT。 ### 什么是反向 SSH 隧道? SSH 端口转发的一种替代方案是 **反向 SSH 隧道**。反向 SSH 隧道的概念非常简单。使用这种方案,在你的受限的家庭网络之外你需要另一台主机(所谓的“中继主机”),你能从当前所在地通过 SSH 登录到它。你可以用有公网 IP 地址的 [VPS 实例](http://xmodulo.com/go/digitalocean) 配置一个中继主机。然后要做的就是从你的家庭网络服务器中建立一个到公网中继主机的永久 SSH 隧道。有了这个隧道,你就可以从中继主机中连接“回”家庭服务器(这就是为什么称之为 “反向” 隧道)。不管你在哪里、你的家庭网络中的 NAT 或 防火墙限制多么严格,只要你可以访问中继主机,你就可以连接到家庭服务器。 ![](/data/attachment/album/201508/07/235248bx5kxx52gg8yyty4.jpg) ### 在 Linux 上设置反向 SSH 隧道 让我们来看看怎样创建和使用反向 SSH 隧道。我们做如下假设:我们会设置一个从家庭服务器(homeserver)到中继服务器(relayserver)的反向 SSH 隧道,然后我们可以通过中继服务器从客户端计算机(clientcomputer) SSH 登录到家庭服务器。本例中的**中继服务器** 的公网 IP 地址是 1.1.1.1。 在家庭服务器上,按照以下方式打开一个到中继服务器的 SSH 连接。 ``` homeserver~$ ssh -fN -R 10022:localhost:22 relayserver_user@1.1.1.1 ``` 这里端口 10022 是任何你可以使用的端口数字。只需要确保中继服务器上不会有其它程序使用这个端口。 “-R 10022:localhost:22” 选项定义了一个反向隧道。它转发中继服务器 10022 端口的流量到家庭服务器的 22 号端口。 用 “-fN” 选项,当你成功通过 SSH 服务器验证时 SSH 会进入后台运行。当你不想在远程 SSH 服务器执行任何命令,就像我们的例子中只想转发端口的时候非常有用。 运行上面的命令之后,你就会回到家庭主机的命令行提示框中。 登录到中继服务器,确认其 127.0.0.1:10022 绑定到了 sshd。如果是的话就表示已经正确设置了反向隧道。 ``` relayserver~$ sudo netstat -nap | grep 10022 ``` --- ``` tcp 0 0 127.0.0.1:10022 0.0.0.0:* LISTEN 8493/sshd ``` 现在就可以从任何其它计算机(客户端计算机)登录到中继服务器,然后按照下面的方法访问家庭服务器。 ``` relayserver~$ ssh -p 10022 homeserver_user@localhost ``` 需要注意的一点是你在上面为localhost输入的 SSH 登录/密码应该是家庭服务器的,而不是中继服务器的,因为你是通过隧道的本地端点登录到家庭服务器,因此不要错误输入中继服务器的登录/密码。成功登录后,你就在家庭服务器上了。 ### 通过反向 SSH 隧道直接连接到网络地址变换后的服务器 上面的方法允许你访问 NAT 后面的 **家庭服务器**,但你需要登录两次:首先登录到 **中继服务器**,然后再登录到**家庭服务器**。这是因为中继服务器上 SSH 隧道的端点绑定到了回环地址(127.0.0.1)。 事实上,有一种方法可以只需要登录到中继服务器就能直接访问NAT之后的家庭服务器。要做到这点,你需要让中继服务器上的 sshd 不仅转发回环地址上的端口,还要转发外部主机的端口。这通过指定中继服务器上运行的 sshd 的 **GatewayPorts** 实现。 打开**中继服务器**的 /etc/ssh/sshd\_config 并添加下面的行。 ``` relayserver~$ vi /etc/ssh/sshd_config ``` --- ``` GatewayPorts clientspecified ``` 重启 sshd。 基于 Debian 的系统: ``` relayserver~$ sudo /etc/init.d/ssh restart ``` 基于红帽的系统: ``` relayserver~$ sudo systemctl restart sshd ``` 现在在家庭服务器中按照下面方式初始化一个反向 SSH 隧道。 ``` homeserver~$ ssh -fN -R 1.1.1.1:10022:localhost:22 relayserver_user@1.1.1.1 ``` 登录到中继服务器然后用 netstat 命令确认成功建立的一个反向 SSH 隧道。 ``` relayserver~$ sudo netstat -nap | grep 10022 ``` --- ``` tcp 0 0 1.1.1.1:10022 0.0.0.0:* LISTEN 1538/sshd: dev ``` 不像之前的情况,现在隧道的端点是 1.1.1.1:10022(中继服务器的公网 IP 地址),而不是 127.0.0.1:10022。这就意味着从外部主机可以访问隧道的另一端。 现在在任何其它计算机(客户端计算机),输入以下命令访问网络地址变换之后的家庭服务器。 ``` clientcomputer~$ ssh -p 10022 homeserver_user@1.1.1.1 ``` 在上面的命令中,1.1.1.1 是中继服务器的公共 IP 地址,homeserver\_user必须是家庭服务器上的用户账户。这是因为你真正登录到的主机是家庭服务器,而不是中继服务器。后者只是中继你的 SSH 流量到家庭服务器。 ### 在 Linux 上设置一个永久反向 SSH 隧道 现在你已经明白了怎样创建一个反向 SSH 隧道,然后把隧道设置为 “永久”,这样隧道启动后就会一直运行(不管临时的网络拥塞、SSH 超时、中继主机重启,等等)。毕竟,如果隧道不是一直有效,你就不能可靠的登录到你的家庭服务器。 对于永久隧道,我打算使用一个叫 autossh 的工具。正如名字暗示的,这个程序可以让你的 SSH 会话无论因为什么原因中断都会自动重连。因此对于保持一个反向 SSH 隧道非常有用。 第一步,我们要设置从家庭服务器到中继服务器的[无密码 SSH 登录](/article-5444-1.html)。这样的话,autossh 可以不需要用户干预就能重启一个损坏的反向 SSH 隧道。 下一步,在建立隧道的家庭服务器上[安装 autossh](/article-5459-1.html)。 在家庭服务器上,用下面的参数运行 autossh 来创建一个连接到中继服务器的永久 SSH 隧道。 ``` homeserver~$ autossh -M 10900 -fN -o "PubkeyAuthentication=yes" -o "StrictHostKeyChecking=false" -o "PasswordAuthentication=no" -o "ServerAliveInterval 60" -o "ServerAliveCountMax 3" -R 1.1.1.1:10022:localhost:22 relayserver_user@1.1.1.1 ``` “-M 10900” 选项指定中继服务器上的监视端口,用于交换监视 SSH 会话的测试数据。中继服务器上的其它程序不能使用这个端口。 “-fN” 选项传递给 ssh 命令,让 SSH 隧道在后台运行。 “-o XXXX” 选项让 ssh: * 使用密钥验证,而不是密码验证。 * 自动接受(未知)SSH 主机密钥。 * 每 60 秒交换 keep-alive 消息。 * 没有收到任何响应时最多发送 3 条 keep-alive 消息。 其余 SSH 隧道相关的选项和之前介绍的一样。 如果你想系统启动时自动运行 SSH 隧道,你可以将上面的 autossh 命令添加到 /etc/rc.local。 ### 总结 在这篇博文中,我介绍了你如何能从外部通过反向 SSH 隧道访问限制性防火墙或 NAT 网关之后的 Linux 服务器。这里我介绍了家庭网络中的一个使用事例,但在企业网络中使用时你尤其要小心。这样的一个隧道可能被视为违反公司政策,因为它绕过了企业的防火墙并把企业网络暴露给外部攻击。这很可能被误用或者滥用。因此在使用之前一定要记住它的作用。 --- via: <http://xmodulo.com/access-linux-server-behind-nat-reverse-ssh-tunnel.html> 作者:[Dan Nanni](http://xmodulo.com/author/nanni) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,979
轻松使用“Explain Shell”脚本来理解 Shell 命令
http://www.tecmint.com/explain-shell-commands-in-the-linux-shell/
2015-08-09T09:30:00
[ "命令", "shell" ]
https://linux.cn/article-5979-1.html
我们在Linux上工作时,每个人都会遇到需要查找shell命令的帮助信息的时候。 尽管内置的帮助像man pages、whatis命令有所助益, 但man pages的输出非常冗长, 除非是个有linux经验的人,不然从大量的man pages中获取帮助信息是非常困难的,而whatis命令的输出很少超过一行, 这对初学者来说是不够的。 ![Explain Shell Commands in Linux Shell](/data/attachment/album/201508/08/225304ov78vvv47yz776zg.jpg) *在Linux Shell中解释Shell命令* 有一些第三方应用程序, 像我们在[Linux 用户的命令行速查表](http://www.tecmint.com/cheat-command-line-cheat-sheet-for-linux-users/)提及过的'cheat'命令。cheat是个优秀的应用程序,即使计算机没有联网也能提供shell命令的帮助, 但是它仅限于预先定义好的命令。 Jackson写了一小段代码,它能非常有效地在bash shell里面解释shell命令,可能最美之处就是你不需要安装第三方包了。他把包含这段代码的的文件命名为“explain.sh”。 #### explain.sh工具的特性 * 易嵌入代码。 * 不需要安装第三方工具。 * 在解释过程中输出恰到好处的信息。 * 需要网络连接才能工作。 * 纯命令行工具。 * 可以解释bash shell里面的大部分shell命令。 * 无需使用root账户。 **先决条件** 唯一的条件就是'curl'包了。 在如今大多数Linux发行版里面已经预安装了curl包, 如果没有你可以按照下面的命令来安装。 ``` # apt-get install curl [On Debian systems] # yum install curl [On CentOS systems] ``` ### 在Linux上安装explain.sh工具 我们要将下面这段代码插入'~/.bashrc'文件(LCTT译注: 若没有该文件可以自己新建一个)中。我们要为每个用户以及对应的'.bashrc'文件插入这段代码,但是建议你不要加在root用户下。 我们注意到.bashrc文件的第一行代码以(#)开始, 这个是可选的并且只是为了区分余下的代码。 #explain.sh 标记代码的开始, 我们将代码插入.bashrc文件的底部。(备注:原代码有误,处理 https 时需要指定加密套件,据微信网友“高小树”同学的改进,原来的`-Gs`应该修改为`-G --ciphers ecdhe_ecdsa_aes_128_sha`。谢谢“高小树”同学。) ``` # explain.sh begins explain () { if [ "$#" -eq 0 ]; then while read -p "Command: " cmd; do curl -G --ciphers ecdhe_ecdsa_aes_128_sha "https://www.mankier.com/api/explain/?cols="$(tput cols) --data-urlencode "q=$cmd" done echo "Bye!" elif [ "$#" -eq 1 ]; then curl -G --ciphers ecdhe_ecdsa_aes_128_sha "https://www.mankier.com/api/explain/?cols="$(tput cols) --data-urlencode "q=$1" else echo "Usage" echo "explain interactive mode." echo "explain 'cmd -o | ...' one quoted command to explain it." fi } ``` ### explain.sh工具的使用 在插入代码并保存之后,你必须退出当前的会话然后重新登录来使改变生效(LCTT译注:你也可以直接使用命令`source ~/.bashrc` 来让改变生效)。每件事情都是交由‘curl’命令处理, 它负责将需要解释的命令以及命令选项传送给mankier服务,然后将必要的信息打印到Linux命令行。不必说的就是使用这个工具你总是需要连接网络。 让我们用explain.sh脚本测试几个笔者不懂的命令例子。 **1.我忘了‘du -h’是干嘛用的, 我只需要这样做:** ``` $ explain 'du -h' ``` ![Get Help on du Command](/data/attachment/album/201508/08/225305j6l3bs8m3smff83s.png) *获得du命令的帮助* **2.如果你忘了'tar -zxvf'的作用,你可以简单地如此做:** ``` $ explain 'tar -zxvf' ``` ![Tar Command Help](/data/attachment/album/201508/08/225307vd5rd48dpko4pizi.png) *Tar命令帮助* **3.我的一个朋友经常对'whatis'以及'whereis'命令的使用感到困惑,所以我建议他:** 在终端简单的地敲下explain命令进入交互模式。 ``` $ explain ``` 然后一个接着一个地输入命令,就能在一个窗口看到他们各自的作用: ``` Command: whatis Command: whereis ``` ![Whatis Whereis Commands Help](/data/attachment/album/201508/08/225309xask5plqv6vm1mnl.png) *Whatis/Whereis命令的帮助* 你只需要使用“Ctrl+c”就能退出交互模式。 **4. 你可以通过管道来请求解释更多的命令。** ``` $ explain 'ls -l | grep -i Desktop' ``` ![Get Help on Multiple Commands](/data/attachment/album/201508/08/225311t9lb1w62hl9x9jzl.png) *获取多条命令的帮助* 同样地,你可以请求你的shell来解释任何shell命令。 前提是你需要一个可用的网络。输出的信息是基于需要解释的命令,从服务器中生成的,因此输出的结果是不可定制的。 对于我来说这个工具真的很有用,并且它已经荣幸地添加在我的.bashrc文件中。你对这个项目有什么想法?它对你有用么?它的解释令你满意吗?请让我知道吧! 请在下面评论为我们提供宝贵意见,喜欢并分享我们以及帮助我们得到传播。 --- via: <http://www.tecmint.com/explain-shell-commands-in-the-linux-shell/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[dingdongnigetou](https://github.com/dingdongnigetou) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,980
如何在 Linux 上运行命令前临时清空 Bash 环境变量
http://www.cyberciti.biz/faq/linux-unix-temporarily-clearing-environment-variables-command/
2015-08-09T11:38:00
[ "命令", "环境变量" ]
https://linux.cn/article-5980-1.html
我是个 bash shell 用户。我想临时清空 bash shell 环境变量。但我不想删除或者 unset 一个输出的环境变量。我怎样才能在 bash 或 ksh shell 的临时环境中运行程序呢? 你可以在 Linux 或类 Unix 系统中使用 env 命令设置并打印环境。env 命令可以按命令行指定的变量来修改环境,之后再执行程序。 ![](/data/attachment/album/201508/08/234643lz4436ndzo8sqds5.jpg) ### 如何显示当前环境? 打开终端应用程序并输入下面的其中一个命令: ``` printenv ``` 或 ``` env ``` 输出样例: ![Fig.01: Unix/Linux: 列出所有环境变量](/data/attachment/album/201508/08/234703bjxggfndgrsxr9gz.jpg) *Fig.01: Unix/Linux: 列出所有环境变量* ### 统计环境变量数目 输入下面的命令: ``` env | wc -l printenv | wc -l # 或者 ``` 输出样例: ``` 20 ``` ### 在干净的 bash/ksh/zsh 环境中运行程序 语法如下所示: ``` env -i your-program-name-here arg1 arg2 ... ``` 例如,要在不使用 http\_proxy 和/或任何其它环境变量的情况下运行 wget 程序。临时清除所有 bash/ksh/zsh 环境变量并运行 wget 程序: ``` env -i /usr/local/bin/wget www.cyberciti.biz env -i wget www.cyberciti.biz # 或者 ``` 这当你想忽视任何已经设置的环境变量来运行命令时非常有用。我每天都会多次使用这个命令,以便忽视 http\_proxy 和其它我设置的环境变量。 #### 例子:使用 http\_proxy ``` $ wget www.cyberciti.biz --2015-08-03 23:20:23-- http://www.cyberciti.biz/ Connecting to 10.12.249.194:3128... connected. Proxy request sent, awaiting response... 200 OK Length: unspecified [text/html] Saving to: 'index.html' index.html [ <=> ] 36.17K 87.0KB/s in 0.4s 2015-08-03 23:20:24 (87.0 KB/s) - 'index.html' saved [37041] ``` #### 例子:忽视 http\_proxy ``` $ env -i /usr/local/bin/wget www.cyberciti.biz --2015-08-03 23:25:17-- http://www.cyberciti.biz/ Resolving www.cyberciti.biz... 74.86.144.194 Connecting to www.cyberciti.biz|74.86.144.194|:80... connected. HTTP request sent, awaiting response... 200 OK Length: unspecified [text/html] Saving to: 'index.html.1' index.html.1 [ <=> ] 36.17K 115KB/s in 0.3s 2015-08-03 23:25:18 (115 KB/s) - 'index.html.1' saved [37041] ``` -i 选项使 env 命令完全忽视它继承的环境。但是,它并不会阻止你的命令(例如 wget 或 curl)设置新的变量。同时,也要注意运行 bash/ksh shell 的副作用: ``` env -i env | wc -l ## 空的 ## # 现在运行 bash ## env -i bash ## bash 设置了新的环境变量 ## env | wc -l ``` #### 例子:设置一个环境变量 语法如下: ``` env var=value /path/to/command arg1 arg2 ... ## 或 ## var=value /path/to/command arg1 arg2 ... ``` 例如设置 http\_proxy: ``` env http_proxy="http://USER:PASSWORD@server1.cyberciti.biz:3128/" /usr/local/bin/wget www.cyberciti.biz ``` --- via: <http://www.cyberciti.biz/faq/linux-unix-temporarily-clearing-environment-variables-command/> 作者:Vivek Gite 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,982
新手应知应会的Linux命令
http://www.linux.com/learn/tutorials/842251-must-know-linux-commands-for-new-users
2015-08-10T07:50:00
[ "命令", "新手" ]
https://linux.cn/article-5982-1.html
![Manage system updates via the command line with dnf on Fedora.](/data/attachment/album/201508/09/235330inkuyuyfd35zm11d.png) *在Fedora上通过命令行使用dnf来管理系统更新* 基于Linux的系统最美妙的一点,就是你可以在终端中使用命令行来管理整个系统。使用命令行的优势在于,你可以使用相同的知识和技能来管理随便哪个Linux发行版。 对于各个发行版以及桌面环境(DE)而言,要一致地使用图形化用户界面(GUI)却几乎是不可能的,因为它们都提供了各自的用户界面。要明确的是,有些情况下在不同的发行版上需要使用不同的命令来执行某些特定的任务,但是,基本来说它们的思路和目的是一致的。 在本文中,我们打算讨论Linux用户应当掌握的一些基本命令。我将给大家演示怎样使用命令行来更新系统、管理软件、操作文件以及切换到root,这些操作将在三个主要发行版上进行:Ubuntu(也包括其定制版和衍生版,还有Debian),openSUSE,以及Fedora。 *让我们开始吧!* ### 保持系统安全和最新 Linux是基于安全设计的,但事实上是,任何软件都有缺陷,会导致安全漏洞。所以,保持你的系统更新到最新是十分重要的。这么想吧:运行过时的操作系统,就像是你坐在全副武装的坦克里头,而门却没有锁。武器会保护你吗?任何人都可以进入开放的大门,对你造成伤害。同样,在你的系统中也有没有打补丁的漏洞,这些漏洞会危害到你的系统。开源社区,不像专利世界,在漏洞补丁方面反应是相当快的,所以,如果你保持系统最新,你也获得了安全保证。 留意新闻站点,了解安全漏洞。如果发现了一个漏洞,了解它,然后在补丁出来的第一时间更新。不管怎样,在生产环境上,你每星期必须至少运行一次更新命令。如果你运行着一台复杂的服务器,那么就要额外当心了。仔细阅读变更日志,以确保更新不会搞坏你的自定义服务。 **Ubuntu**:牢记一点:你在升级系统或安装不管什么软件之前,都必须要刷新仓库(也就是repos)。在Ubuntu上,你可以使用下面的命令来更新系统,第一个命令用于刷新仓库: ``` sudo apt-get update ``` 仓库更新后,现在你可以运行系统更新命令了: ``` sudo apt-get upgrade ``` 然而,这个命令不会更新内核和其它一些包,所以你也必须要运行下面这个命令: ``` sudo apt-get dist-upgrade ``` **openSUSE**:如果你是在openSUSE上,你可以使用以下命令来更新系统(照例,第一个命令的意思是更新仓库): ``` sudo zypper refresh sudo zypper up ``` **Fedora**:如果你是在Fedora上,你可以使用'dnf'命令,它是zypper和apt-get的'同类': ``` sudo dnf update sudo dnf upgrade ``` ### 软件安装与移除 你只可以安装那些你系统上启用的仓库中可用的包,各个发行版默认都附带有并启用了一些官方或者第三方仓库。 **Ubuntu**:要在Ubuntu上安装包,首先更新仓库,然后使用下面的语句: ``` sudo apt-get install [package_name] ``` 样例: ``` sudo apt-get install gimp ``` **openSUSE**:命令是这样的: ``` sudo zypper install [package_name] ``` **Fedora**:Fedora已经废弃了'yum',现在换成了'dnf',所以命令是这样的: ``` sudo dnf install [package_name] ``` 移除软件的过程也一样,只要把'install'改成'remove'。 **Ubuntu**: ``` sudo apt-get remove [package_name] ``` **openSUSE**: ``` sudo zypper remove [package_name] ``` **Fedora**: ``` sudo dnf remove [package_name] ``` ### 如何管理第三方软件? 在一个庞大的开发者社区中,这些开发者们为用户提供了许多的软件。不同的发行版有不同的机制来将这些第三方软件提供给用户。当然,同时也取决于开发者怎样将这些软件提供给用户,有些开发者会提供二进制包,而另外一些开发者则将软件发布到仓库中。 Ubuntu很多地方都用到PPA(个人包归档),但是,不幸的是,它却没有提供一个内建工具来帮助用于搜索这些PPA仓库。在安装软件前,你将需要通过Google搜索PPA,然后手工添加该仓库。下面就是添加PPA到系统的方法: ``` sudo add-apt-repository ppa:<repository-name> ``` 样例:比如说,我想要添加LibreOffice PPA到我的系统中。我应该Google该PPA,然后从Launchpad获得该仓库的名称,在本例中它是"libreoffice/ppa"。然后,使用下面的命令来添加该PPA: ``` sudo add-apt-repository ppa:libreoffice/ppa ``` 它会要你按下回车键来导入密钥。完成后,使用'update'命令来刷新仓库,然后安装该包。 openSUSE拥有一个针对第三方应用的优雅的解决方案。你可以访问software.opensuse.org,一键点击搜索并安装相应包,它会自动将对应的仓库添加到你的系统中。如果你想要手工添加仓库,可以使用该命令: ``` sudo zypper ar -f url_of_the_repo name_of_repo sudo zypper ar -f http://download.opensuse.org/repositories/LibreOffice:Factory/openSUSE_13.2/LibreOffice:Factory.repo LOF ``` 然后,刷新仓库并安装软件: ``` sudo zypper refresh sudo zypper install libreoffice ``` Fedora用户只需要添加RPMFusion(包括自由软件和非自由软件仓库),该仓库包含了大量的应用。如果你需要添加该仓库,命令如下: ``` dnf config-manager --add-repo http://www.example.com/example.repo ``` ### 一些基本命令 我已经写了一些关于使用CLI来管理你系统上的文件的[文章](http://www.linux.com/learn/tutorials/828027-how-to-manage-your-files-from-the-command-line),下面介绍一些基本命令,这些命令在所有发行版上都经常会用到。 拷贝文件或目录到一个新的位置: ``` cp path_of_file_1 path_of_the_directory_where_you_want_to_copy/ ``` 将某个目录中的所有文件拷贝到一个新的位置(注意斜线和星号,它指的是该目录下的所有文件): ``` cp path_of_files/* path_of_the_directory_where_you_want_to_copy/ ``` 将一个文件从某个位置移动到另一个位置(尾斜杠是说放在该目录中): ``` mv path_of_file_1 path_of_the_directory_where_you_want_to_move/ ``` 将所有文件从一个位置移动到另一个位置: ``` mv path_of_directory_where_files_are/* path_of_the_directory_where_you_want_to_move/ ``` 删除一个文件: ``` rm path_of_file ``` 删除一个目录: ``` rm -r path_of_directory ``` 移除目录中所有内容,完整保留目录文件夹: ``` rm -r path_of_directory/* ``` ### 创建新目录 要创建一个新目录,首先进入到你要创建该目录的位置。比如说,你想要在你的Documents目录中创建一个名为'foundation'的文件夹。让我们使用 cd (即change directory,改变目录)命令来改变目录: ``` cd /home/swapnil/Documents ``` (替换'swapnil'为你系统中的用户名) 然后,使用 mkdir 命令来创建该目录: ``` mkdir foundation ``` 你也可以从任何地方创建一个目录,通过指定该目录的路径即可。例如: ``` mdkir /home/swapnil/Documents/foundation ``` 如果你想要连父目录一起创建,那么可以使用 -p 选项。它会在指定路径中创建所有目录: ``` mdkir -p /home/swapnil/Documents/linux/foundation ``` ### 成为root 你或许需要成为root,或者具有sudo权力的用户,来实施一些管理任务,如管理软件包或者对根目录或其下的文件进行一些修改。其中一个例子就是编辑'fstab'文件,该文件记录了挂载的硬盘驱动器。它在'etc'目录中,而该目录又在根目录中,你只能作为超级用户来修改该文件。在大多数的发行版中,你可以通过'su'来成为root。比如说,在openSUSE上,我想要成为root,因为我要在根目录中工作,你可以使用下面的命令之一: ``` sudo su - ``` 或 ``` su - ``` 该命令会要求输入密码,然后你就具有root特权了。记住一点:千万不要以root用户来运行系统,除非你知道你正在做什么。另外重要的一点需要注意的是,你以root什么对目录或文件进行修改后,会将它们的拥有关系从该用户或特定的服务改变为root。你必须恢复这些文件的拥有关系,否则该服务或用户就不能访问或写入到那些文件。要改变用户,命令如下: ``` sudo chown -R 用户:组 文件或目录名 ``` 当你将其它发行版上的分区挂载到系统中时,你可能经常需要该操作。当你试着访问这些分区上的文件时,你可能会碰到权限拒绝错误,你只需要改变这些分区的拥有关系就可以访问它们了。需要额外当心的是,不要改变根目录的权限或者拥有关系。 这些就是Linux新手们需要的基本命令。如果你有任何问题,或者如果你想要我们涵盖一个特定的话题,请在下面的评论中告诉我们吧。 --- via: <http://www.linux.com/learn/tutorials/842251-must-know-linux-commands-for-new-users> 作者:[Swapnil Bhartiya](http://www.linux.com/community/forums/person/61003) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,983
Autojump:一个可以在 Linux 文件系统快速导航的高级 cd 命令
http://www.tecmint.com/autojump-a-quickest-way-to-navigate-linux-filesystem/
2015-08-10T10:30:00
[ "autojump" ]
https://linux.cn/article-5983-1.html
对于那些主要通过控制台或终端使用 Linux 命令行来工作的 Linux 用户来说,他们真切地感受到了 Linux 的强大。 然而在 Linux 的分层文件系统中进行导航有时或许是一件头疼的事,尤其是对于那些新手来说。 现在,有一个用 Python 写的名为 `autojump` 的 Linux 命令行实用程序,它是 Linux ‘[cd](http://www.tecmint.com/cd-command-in-linux/)’命令的高级版本。 ![Autojump 命令](/data/attachment/album/201508/10/004930wjej787tieki74eb.jpg) *Autojump – Linux 文件系统导航的最快方式* 这个应用原本由 Joël Schaerer 编写,现在由 +William Ting 维护。 Autojump 应用可以从用户那里学习并帮助用户在 Linux 命令行中进行更轻松的目录导航。与传统的 `cd` 命令相比,autojump 能够更加快速地导航至目的目录。 #### autojump 的特色 * 自由开源的应用,在 GPL V3 协议下发布。 * 自主学习的应用,从用户的导航习惯中学习。 * 更快速地导航。不必包含子目录的名称。 * 对于大多数的标准 Linux 发行版本,能够在软件仓库中下载得到,它们包括 Debian (testing/unstable), Ubuntu, Mint, Arch, Gentoo, Slackware, CentOS, RedHat 和 Fedora。 * 也能在其他平台中使用,例如 OS X(使用 Homebrew) 和 Windows (通过 Clink 来实现) * 使用 autojump 你可以跳至任何特定的目录或一个子目录。你还可以用文件管理器打开某个目录,并查看你在某个目录中所待时间的统计数据。 #### 前提 * 版本号不低于 2.6 的 Python ### 第 1 步: 做一次完整的系统升级 1、 以 **root** 用户的身份,做一次系统更新或升级,以此保证你安装有最新版本的 Python。 ``` # apt-get update && apt-get upgrade && apt-get dist-upgrade [基于 APT 的系统] # yum update && yum upgrade [基于 YUM 的系统] # dnf update && dnf upgrade [基于 DNF 的系统] ``` **注** : 这里特别提醒,在基于 YUM 或 DNF 的系统中,更新和升级执行相同的行动,大多数时间里它们是通用的,这点与基于 APT 的系统不同。 ### 第 2 步: 下载和安装 Autojump 2、 正如前面所言,在大多数的 Linux 发行版本的软件仓库中, autojump 都可获取到。通过包管理器你就可以安装它。但若你想从源代码开始来安装它,你需要克隆源代码并执行 python 脚本,如下面所示: #### 从源代码安装 若没有安装 git,请安装它。我们需要使用它来克隆 git 仓库。 ``` # apt-get install git [基于 APT 的系统] # yum install git [基于 YUM 的系统] # dnf install git [基于 DNF 的系统] ``` 一旦安装完 git,以普通用户身份登录,然后像下面那样来克隆 autojump: ``` $ git clone git://github.com/joelthelion/autojump.git ``` 接着,使用 `cd` 命令切换到下载目录。 ``` $ cd autojump ``` 下载,赋予安装脚本文件可执行权限,并以 root 用户身份来运行安装脚本。 ``` # chmod 755 install.py # ./install.py ``` #### 从软件仓库中安装 3、 假如你不想麻烦,你可以以 **root** 用户身份从软件仓库中直接安装它: 在 Debian, Ubuntu, Mint 及类似系统中安装 autojump : ``` # apt-get install autojump ``` 为了在 Fedora, CentOS, RedHat 及类似系统中安装 autojump, 你需要启用 [EPEL 软件仓库](/article-2324-1.html)。 ``` # yum install epel-release # yum install autojump 或 # dnf install autojump ``` ### 第 3 步: 安装后的配置 4、 在 Debian 及其衍生系统 (Ubuntu, Mint,…) 中, 激活 autojump 应用是非常重要的。 为了暂时激活 autojump 应用,即直到你关闭当前会话或打开一个新的会话之前让 autojump 均有效,你需要以常规用户身份运行下面的命令: ``` $ source /usr/share/autojump/autojump.sh on startup ``` 为了使得 autojump 在 BASH shell 中永久有效,你需要运行下面的命令。 ``` $ echo '. /usr/share/autojump/autojump.sh' >> ~/.bashrc ``` ### 第 4 步: Autojump 的预测试和使用 5、 如先前所言, autojump 将只跳到先前 `cd` 命令到过的目录。所以在我们开始测试之前,我们要使用 `cd` 切换到一些目录中去,并创建一些目录。下面是我所执行的命令。 ``` $ cd $ cd $ cd Desktop/ $ cd $ cd Documents/ $ cd $ cd Downloads/ $ cd $ cd Music/ $ cd $ cd Pictures/ $ cd $ cd Public/ $ cd $ cd Templates $ cd $ cd /var/www/ $ cd $ mkdir autojump-test/ $ cd $ mkdir autojump-test/a/ && cd autojump-test/a/ $ cd $ mkdir autojump-test/b/ && cd autojump-test/b/ $ cd $ mkdir autojump-test/c/ && cd autojump-test/c/ $ cd ``` 现在,我们已经切换到过上面所列的目录,并为了测试创建了一些目录,一切准备就绪,让我们开始吧。 **需要记住的一点** : `j` 是 autojump 的一个封装,你可以使用 `j` 来代替 autojump, 相反亦可。 6、 使用 -v 选项查看安装的 autojump 的版本。 ``` $ j -v 或 $ autojump -v ``` ![查看 Autojump 的版本](/data/attachment/album/201508/10/004931gkqkp2et2s4qee4s.png) *查看 Autojump 的版本* 7、 跳到先前到过的目录 ‘/var/www‘。 ``` $ j www ``` ![跳到目录](/data/attachment/album/201508/10/004931s994am9a7thznthk.png) *跳到目录* 8、 跳到先前到过的子目录‘/home/avi/autojump-test/b‘ 而不键入子目录的全名。 ``` $ jc b ``` ![跳到子目录](/data/attachment/album/201508/10/004932vzk9mkm2b2k0bpm3.png) *跳到子目录* 9、 使用下面的命令,你就可以从命令行打开一个文件管理器,例如 GNOME Nautilus ,而不是跳到一个目录。 ``` $ jo www ``` ![打开目录](/data/attachment/album/201508/10/004932snychfsc6cnadz7c.png) *打开目录* ![在文件管理器中打开目录](/data/attachment/album/201508/10/004932bhr44zskr97e20s9.png) *在文件管理器中打开目录* 你也可以在一个文件管理器中打开一个子目录。 ``` $ jco c ``` ![打开子目录](/data/attachment/album/201508/10/004933klj7yqlwmm4dlizm.png) *打开子目录* ![在文件管理器中打开子目录](/data/attachment/album/201508/10/004933wjyl8gldq2n8rdny.png) *在文件管理器中打开子目录* 10、 查看每个文件夹的权重和全部文件夹计算得出的总权重的统计数据。文件夹的权重代表在这个文件夹中所花的总时间。 文件夹权重是该列表中目录的数字。(LCTT 译注: 在这一句中,我觉得原文中的 if 应该为 is) ``` $ j --stat ``` ![查看文件夹统计数据](/data/attachment/album/201508/10/004934cc87b62c0cez3ecc.png) *查看文件夹统计数据* **提醒** : autojump 存储其运行日志和错误日志的地方是文件夹 `~/.local/share/autojump/`。千万不要重写这些文件,否则你将失去你所有的统计状态结果。 ``` $ ls -l ~/.local/share/autojump/ ``` ![Autojump 的日志](/data/attachment/album/201508/10/004934t9rxzkn7cr7cnxc5.png) *Autojump 的日志* 11、 假如需要,你只需运行下面的命令就可以查看帮助 : ``` $ j --help ``` ![Autojump 的帮助和选项](/data/attachment/album/201508/10/004935ahnfndon64hz4xk2.png) *Autojump 的帮助和选项* ### 功能需求和已知的冲突 * autojump 只能让你跳到那些你已经用 `cd` 到过的目录。一旦你用 `cd` 切换到一个特定的目录,这个行为就会被记录到 autojump 的数据库中,这样 autojump 才能工作。不管怎样,在你设定了 autojump 后,你不能跳到那些你没有用 `cd` 到过的目录。 * 你不能跳到名称以破折号 (-) 开头的目录。或许你可以考虑阅读我的有关[操作文件或目录](http://www.tecmint.com/manage-linux-filenames-with-special-characters/) 的文章,尤其是有关操作那些以‘-‘ 或其他特殊字符开头的文件和目录的内容。 * 在 BASH shell 中,autojump 通过修改 `$PROMPT_COMMAND` 环境变量来跟踪目录的行为,所以强烈建议不要去重写 `$PROMPT_COMMAND` 这个环境变量。若你需要添加其他的命令到现存的 `$PROMPT_COMMAND` 环境变量中,请添加到`$PROMPT_COMMAND` 环境变量的最后。 ### 结论: 假如你是一个命令行用户, autojump 是你必备的实用程序。它可以简化许多事情。它是一个在命令行中导航 Linux 目录的绝佳的程序。请自行尝试它,并在下面的评论框中让我知晓你宝贵的反馈。保持联系,保持分享。喜爱并分享,帮助我们更好地传播。 --- via: <http://www.tecmint.com/autojump-a-quickest-way-to-navigate-linux-filesystem/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,984
如何在 Ubuntu 上安装配置管理系统 Chef (大厨)
http://linoxide.com/ubuntu-how-to/install-configure-chef-ubuntu-14-04-15-04/
2015-08-10T13:53:00
[ "Chef", "配置管理" ]
/article-5984-1.html
[Chef](https://www.chef.io)是面对IT专业人员的一款配置管理和自动化工具,它可以配置和管理你的基础设施(设备),无论它在本地还是在云上。它可以用于加速应用部署并协调多个系统管理员和开发人员的工作,这包括可支持大量的客户群的成百上千的服务器和程序。chef最有用的是让基础设施变成代码。一旦你掌握了Chef,你可以获得自动化管理你的云端基础设施或者终端用户的一流的网络IT支持。 下面是我们将要在本篇中要设置和配置Chef的主要组件。 ![](/data/attachment/album/201508/10/105503sh2ihhvha00kmymg.png) ### 安装Chef的要求和版本 我们将在下面的基础环境下设置Chef配置管理系统。 | 管理和配置工具:Chef | | | --- | --- | | 基础操作系统 | Ubuntu 14.04.1 LTS (x86\_64) | | Chef Server | Version 12.1.0 | | Chef Manage | Version 1.17.0 | | Chef Development Kit | Version 0.6.2 | | 内存和CPU | 4 GB , 2.0+2.0 GHz | ### Chef服务端的安装和配置 Chef服务端是核心组件,它存储配置以及其他和工作站交互的配置数据。让我们在他们的官网<https://www.chef.io>下载最新的安装文件。 我使用下面的命令来下载和安装它。 #### 1) 下载Chef服务端 ``` root@ubuntu-14-chef:/tmp# wget https://web-dl.packagecloud.io/chef/stable/packages/ubuntu/trusty/chef-server-core_12.1.0-1_amd64.deb ``` #### 2) 安装Chef服务端 ``` root@ubuntu-14-chef:/tmp# dpkg -i chef-server-core_12.1.0-1_amd64.deb ``` #### 3) 重新配置Chef服务端 现在运行下面的命令来启动所有的chef服务端服务,这一步也许会花费一些时间,因为它需要由许多不同一起工作的服务组成一个可正常运作的系统。 ``` root@ubuntu-14-chef:/tmp# chef-server-ctl reconfigure ``` chef服务端启动命令'chef-server-ctl reconfigure'需要运行两次,这样就会在安装后看到这样的输出。 ``` Chef Client finished, 342/350 resources updated in 113.71139964 seconds opscode Reconfigured! ``` #### 4) 重启系统 安装完成后重启系统使系统能最好的工作,不然我们或许会在创建用户的时候看到下面的SSL连接错误。 ``` ERROR: Errno::ECONNRESET: Connection reset by peer - SSL_connect ``` #### 5) 创建新的管理员 运行下面的命令来创建一个新的管理员账户及其配置。创建过程中,用户的RSA私钥会自动生成,它需要保存到一个安全的地方。--file选项会保存RSA私钥到指定的路径下。 ``` root@ubuntu-14-chef:/tmp# chef-server-ctl user-create kashi kashi kashi kashif.fareedi@gmail.com kashi123 --filename /root/kashi.pem ``` ### Chef服务端的管理设置 Chef Manage是一个针对企业级Chef用户的管理控制台,它提供了可视化的web用户界面,可以管理节点、数据包、规则、环境、Cookbook 和基于角色的访问控制(RBAC)。 #### 1) 下载Chef Manage 从官网复制链接并下载chef manage的安装包。 ``` root@ubuntu-14-chef:~# wget https://web-dl.packagecloud.io/chef/stable/packages/ubuntu/trusty/opscode-manage_1.17.0-1_amd64.deb ``` #### 2) 安装Chef Manage 使用下面的命令在root的家目录下安装它。 ``` root@ubuntu-14-chef:~# chef-server-ctl install opscode-manage --path /root ``` #### 3) 重启Chef Manage和服务端 安装完成后我们需要运行下面的命令来重启chef manage和服务端。 ``` root@ubuntu-14-chef:~# opscode-manage-ctl reconfigure root@ubuntu-14-chef:~# chef-server-ctl reconfigure ``` ### Chef Manage网页控制台 我们可以使用localhost或它的域名来访问网页控制台,并用已经创建的管理员登录 ![chef amanage](/data/attachment/album/201508/10/105504uh2d1gdgbzaw1bpd.png) #### 1) Chef Manage创建新的组织 你或许被要求创建新的组织,或者也可以接受其他组织的邀请。如下所示,使用缩写和全名来创建一个新的组织。 ![Create Org](/data/attachment/album/201508/10/105505u55y37954w5z48t4.png) #### 2) 用命令行创建新的组织 我们同样也可以运行下面的命令来创建新的组织。 ``` root@ubuntu-14-chef:~# chef-server-ctl org-create linux Linoxide Linux Org. --association_user kashi --filename linux.pem ``` ### 设置工作站 我们已经完成安装chef服务端,现在我们可以开始创建任何recipes([基础配置元素](https://docs.chef.io/recipes.html))、cookbooks([基础配置集](https://docs.chef.io/cookbooks.html))、attributes([节点属性](https://docs.chef.io/attributes.html)),以及做一些其他修改。 #### 1) 在Chef服务端上创建新的用户和组织 为了设置工作站,我们需要用命令行创建一个新的用户和组织。 ``` root@ubuntu-14-chef:~# chef-server-ctl user-create bloger Bloger Kashif bloger.kashif@gmail.com bloger123 --filename bloger.pem root@ubuntu-14-chef:~# chef-server-ctl org-create blogs Linoxide Blogs Inc. --association_user bloger --filename blogs.pem ``` #### 2) 下载工作站入门套件 在工作站的网页控制台中下载并保存入门套件,它用于与服务端协同工作 ![Starter Kit](/data/attachment/album/201508/10/105506lvejbqj4et7n7v9t.png) #### 3) 下载套件后,点击"Proceed" ![starter kit](/data/attachment/album/201508/10/105506ss48jdiq4si9qx58.png) ### 用于工作站的Chef开发套件设置 Chef开发套件是一款包含开发chef所需的所有工具的软件包。它捆绑了由Chef开发的带Chef客户端的工具。 #### 1) 下载 Chef DK 我们可以从它的官网链接中下载开发包,并选择操作系统来下载chef开发包。 ![Chef DK](/data/attachment/album/201508/10/105507kibpgnnpbnxrngit.png) 复制链接并用wget下载 ``` root@ubuntu-15-WKS:~# wget https://opscode-omnibus-packages.s3.amazonaws.com/ubuntu/12.04/x86_64/chefdk_0.6.2-1_amd64.deb ``` #### 2) Chef开发套件安装 使用dpkg命令安装开发套件 ``` root@ubuntu-15-WKS:~# dpkg -i chefdk_0.6.2-1_amd64.deb ``` #### 3) Chef DK 验证 使用下面的命令验证客户端是否已经正确安装。 ``` root@ubuntu-15-WKS:~# chef verify ``` --- ``` Running verification for component 'berkshelf' Running verification for component 'test-kitchen' Running verification for component 'chef-client' Running verification for component 'chef-dk' Running verification for component 'chefspec' Running verification for component 'rubocop' Running verification for component 'fauxhai' Running verification for component 'knife-spork' Running verification for component 'kitchen-vagrant' Running verification for component 'package installation' Running verification for component 'openssl' .............. --------------------------------------------- Verification of component 'rubocop' succeeded. Verification of component 'knife-spork' succeeded. Verification of component 'openssl' succeeded. Verification of component 'berkshelf' succeeded. Verification of component 'chef-dk' succeeded. Verification of component 'fauxhai' succeeded. Verification of component 'test-kitchen' succeeded. Verification of component 'kitchen-vagrant' succeeded. Verification of component 'chef-client' succeeded. Verification of component 'chefspec' succeeded. Verification of component 'package installation' succeeded. ``` #### 4) 连接Chef服务端 我们将创建 ~/.chef目录,并从chef服务端复制两个用户和组织的pem文件到该目录下。 ``` root@ubuntu-14-chef:~# scp bloger.pem blogs.pem kashi.pem linux.pem root@172.25.10.172:/.chef/ ``` --- ``` root@172.25.10.172's password: bloger.pem 100% 1674 1.6KB/s 00:00 blogs.pem 100% 1674 1.6KB/s 00:00 kashi.pem 100% 1678 1.6KB/s 00:00 linux.pem 100% 1678 1.6KB/s 00:00 ``` #### 5) 编辑配置来管理chef环境 \*\* 现在使用下面的内容创建"~/.chef/knife.rb"。 ``` root@ubuntu-15-WKS:/.chef# vim knife.rb current_dir = File.dirname(__FILE__) log_level :info log_location STDOUT node_name "kashi" client_key "#{current_dir}/kashi.pem" validation_client_name "kashi-linux" validation_key "#{current_dir}/linux.pem" chef_server_url "https://172.25.10.173/organizations/linux" cache_type 'BasicFile' cache_options( :path => "#{ENV['HOME']}/.chef/checksums" ) cookbook_path ["#{current_dir}/../cookbooks"] ``` 创建knife.rb中指定的“~/cookbooks”文件夹。 ``` root@ubuntu-15-WKS:/# mkdir cookbooks ``` #### 6) 测试Knife配置 运行“knife user list”和“knife client list”来验证knife是否工作。 ``` root@ubuntu-15-WKS:/.chef# knife user list ``` 第一次运行的时候可能会看到下面的错误,这是因为工作站上还没有chef服务端的SSL证书。 ``` ERROR: SSL Validation failure connecting to host: 172.25.10.173 - SSL_connect returned=1 errno=0 state=SSLv3 read server certificate B: certificate verify failed ERROR: Could not establish a secure connection to the server. Use `knife ssl check` to troubleshoot your SSL configuration. If your Chef Server uses a self-signed certificate, you can use `knife ssl fetch` to make knife trust the server's certificates. ``` 要解决上面的命令的错误,运行下面的命令来获取ssl证书,并重新运行knife user和client list,这时候应该就可以了。 ``` root@ubuntu-15-WKS:/.chef# knife ssl fetch WARNING: Certificates from 172.25.10.173 will be fetched and placed in your trusted_cert directory (/.chef/trusted_certs). ``` knife没有办法验证这些是否是有效的证书。你应该在下载时验证这些证书的真实性。 在/.chef/trusted\_certs/ubuntu-14-chef\_test\_com.crt下面添加ubuntu-14-chef.test.com的证书。 在上面的命令取得ssl证书后,接着运行下面的命令。 ``` root@ubuntu-15-WKS:/.chef#knife client list kashi-linux ``` ### 配置与chef服务端交互的新节点 节点是执行所有基础设施自动化的chef客户端。因此,在配置完chef-server和knife工作站后,通过配置与chef-server交互的新节点,来将新的服务端添加到我们的chef环境下。 我们使用下面的命令来添加与chef服务端协同工作的新节点。 ``` root@ubuntu-15-WKS:~# knife bootstrap 172.25.10.170 --ssh-user root --ssh-password kashi123 --node-name mydns ``` --- ``` Doing old-style registration with the validation key at /.chef/linux.pem... Delete your validation key in order to use your user credentials instead Connecting to 172.25.10.170 172.25.10.170 Installing Chef Client... 172.25.10.170 --2015-07-04 22:21:16-- https://www.opscode.com/chef/install.sh 172.25.10.170 Resolving www.opscode.com (www.opscode.com)... 184.106.28.91 172.25.10.170 Connecting to www.opscode.com (www.opscode.com)|184.106.28.91|:443... connected. 172.25.10.170 HTTP request sent, awaiting response... 200 OK 172.25.10.170 Length: 18736 (18K) [application/x-sh] 172.25.10.170 Saving to: ‘STDOUT’ 172.25.10.170 100%[======================================>] 18,736 --.-K/s in 0s 172.25.10.170 172.25.10.170 2015-07-04 22:21:17 (200 MB/s) - written to stdout [18736/18736] 172.25.10.170 172.25.10.170 Downloading Chef 12 for ubuntu... 172.25.10.170 downloading https://www.opscode.com/chef/metadata?v=12&prerelease=false&nightlies=false&p=ubuntu&pv=14.04&m=x86_64 172.25.10.170 to file /tmp/install.sh.26024/metadata.txt 172.25.10.170 trying wget... ``` 之后我们可以在knife节点列表下看到创建的新节点,它也会在新节点下创建新的客户端。 ``` root@ubuntu-15-WKS:~# knife node list mydns ``` 类似地我们只要通过给上面的knife命令提供ssh证书,就可以在chef设施上创建多个节点。 ### 总结 本篇我们学习了chef管理工具,并通过安装和配置设置基本了解了它的组件。我希望你在学习安装和配置Chef服务端以及它的工作站和客户端节点中获得乐趣。 --- via: <http://linoxide.com/ubuntu-how-to/install-configure-chef-ubuntu-14-04-15-04/> 作者:[Kashif Siddique](http://linoxide.com/author/kashifs/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /ubuntu-how-to/install-configure-chef-ubuntu-14-04-15-04/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c6aa0>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,985
如何收集 NGINX 指标(第二篇)
https://www.datadoghq.com/blog/how-to-collect-nginx-metrics/
2015-08-10T14:30:00
[ "NGINX" ]
https://linux.cn/article-5985-1.html
![](/data/attachment/album/201508/10/143028a5uwtvjnbag86zv5.png) ### 如何获取你所需要的 NGINX 指标 如何获取需要的指标取决于你正在使用的 NGINX 版本以及你希望看到哪些指标。(参见 [如何监控 NGINX(第一篇)](https://www.datadoghq.com/blog/how-to-monitor-nginx/) 来深入了解NGINX指标。)自由开源的 NGINX 和商业版的 NGINX Plus 都有可以报告指标度量的状态模块,NGINX 也可以在其日志中配置输出特定指标: **指标可用性** | 指标 | [NGINX (开源)](https://www.datadoghq.com/blog/how-to-collect-nginx-metrics/#open-source) | [NGINX Plus](https://www.datadoghq.com/blog/how-to-collect-nginx-metrics/#plus) | [NGINX 日志](https://www.datadoghq.com/blog/how-to-collect-nginx-metrics/#logs) | | --- | --- | --- | --- | | accepts(接受) / accepted(已接受) | x | x | | | handled(已处理) | x | x | | | dropped(已丢弃) | x | x | | | active(活跃) | x | x | | | requests (请求数)/ total(全部请求数) | x | x | | | 4xx 代码 | | x | x | | 5xx 代码 | | x | x | | request time(请求处理时间) | | | x | #### 指标收集:NGINX(开源版) 开源版的 NGINX 会在一个简单的状态页面上显示几个与服务器状态有关的基本指标,它们由你启用的 HTTP [stub status module](http://nginx.org/en/docs/http/ngx_http_stub_status_module.html) 所提供。要检查该模块是否已启用,运行以下命令: ``` nginx -V 2>&1 | grep -o with-http_stub_status_module ``` 如果你看到终端输出了 **http*stub*status\_module**,说明该状态模块已启用。 如果该命令没有输出,你需要启用该状态模块。你可以在[从源代码构建 NGINX](http://wiki.nginx.org/InstallOptions) 时使用 `--with-http_stub_status_module` 配置参数: ``` ./configure \ … \ --with-http_stub_status_module make sudo make install ``` 在验证该模块已经启用或你自己启用它后,你还需要修改 NGINX 配置文件,来给状态页面设置一个本地可访问的 URL(例如: /nginx\_status): ``` server { location /nginx_status { stub_status on; access_log off; allow 127.0.0.1; deny all; } } ``` 注:nginx 配置中的 server 块通常并不放在主配置文件中(例如:/etc/nginx/nginx.conf),而是放在主配置会加载的辅助配置文件中。要找到主配置文件,首先运行以下命令: ``` nginx -t ``` 打开列出的主配置文件,在以 http 块结尾的附近查找以 include 开头的行,如: ``` include /etc/nginx/conf.d/*.conf; ``` 在其中一个包含的配置文件中,你应该会找到主 **server** 块,你可以如上所示配置 NGINX 的指标输出。更改任何配置后,通过执行以下命令重新加载配置文件: ``` nginx -s reload ``` 现在,你可以浏览状态页看到你的指标: ``` Active connections: 24 server accepts handled requests 1156958 1156958 4491319 Reading: 0 Writing: 18 Waiting : 6 ``` 请注意,如果你希望从远程计算机访问该状态页面,则需要将远程计算机的 IP 地址添加到你的状态配置文件的白名单中,在上面的配置文件中的白名单仅有 127.0.0.1。 NGINX 的状态页面是一种快速查看指标状况的简单方法,但当连续监测时,你需要按照标准间隔自动记录该数据。监控工具箱 [Nagios](https://exchange.nagios.org/directory/Plugins/Web-Servers/nginx) 或者 [Datadog](http://docs.datadoghq.com/integrations/nginx/),以及收集统计信息的服务 [collectD](https://collectd.org/wiki/index.php/Plugin:nginx) 已经可以解析 NGINX 的状态信息了。 #### 指标收集: NGINX Plus 商业版的 NGINX Plus 通过它的 ngx*http*status\_module 提供了比开源版 NGINX [更多的指标](http://nginx.org/en/docs/http/ngx_http_status_module.html#data)。NGINX Plus 以字节流的方式提供这些额外的指标,提供了关于上游系统和高速缓存的信息。NGINX Plus 也会报告所有的 HTTP 状态码类型(1XX,2XX,3XX,4XX,5XX)的计数。一个 NGINX Plus 状态报告例子[可在此查看](http://demo.nginx.com/status.html): ![NGINX Plus status board](/data/attachment/album/201508/10/143138qrti1hj61w57htit.png) 注:NGINX Plus 在状态仪表盘中的“Active”连接的定义和开源 NGINX 通过 stub*status*module 收集的“Active”连接指标略有不同。在 NGINX Plus 指标中,“Active”连接不包括Waiting状态的连接(即“Idle”连接)。 NGINX Plus 也可以输出 [JSON 格式的指标](http://demo.nginx.com/status),可以用于集成到其他监控系统。在 NGINX Plus 中,你可以看到 [给定的上游服务器组](http://demo.nginx.com/status/upstreams/demoupstreams)的指标和健康状况,或者简单地从上游服务器的[单个服务器](http://demo.nginx.com/status/upstreams/demoupstreams/0/responses)得到响应代码的计数: ``` {"1xx":0,"2xx":3483032,"3xx":0,"4xx":23,"5xx":0,"total":3483055} ``` 要启动 NGINX Plus 指标仪表盘,你可以在 NGINX 配置文件的 http 块内添加状态 server 块。 (参见上一节,为收集开源版 NGINX 指标而如何查找相关的配置文件的说明。)例如,要设置一个状态仪表盘 ([http://your.ip.address:8080/status.html)和一个](http://your.ip.address:8080/status.html%EF%BC%89%E5%92%8C%E4%B8%80%E4%B8%AA) JSON 接口([http://your.ip.address:8080/status),可以添加以下](http://your.ip.address:8080/status%EF%BC%89%EF%BC%8C%E5%8F%AF%E4%BB%A5%E6%B7%BB%E5%8A%A0%E4%BB%A5%E4%B8%8B) server 块来设定: ``` server { listen 8080; root /usr/share/nginx/html; location /status { status; } location = /status.html { } } ``` 当你重新加载 NGINX 配置后,状态页就可以用了: ``` nginx -s reload ``` 关于如何配置扩展状态模块,官方 NGINX Plus 文档有 [详细介绍](http://nginx.org/en/docs/http/ngx_http_status_module.html#example) 。 #### 指标收集:NGINX 日志 NGINX 的 [日志模块](http://nginx.org/en/docs/http/ngx_http_log_module.html) 会把可自定义的访问日志写到你配置的指定位置。你可以通过[添加或移除变量](http://nginx.org/en/docs/http/ngx_http_log_module.html#log_format)来自定义日志的格式和包含的数据。要存储详细的日志,最简单的方法是添加下面一行在你配置文件的 server 块中(参见上上节,为收集开源版 NGINX 指标而如何查找相关的配置文件的说明。): ``` access_log logs/host.access.log combined; ``` 更改 NGINX 配置文件后,执行如下命令重新加载配置文件: ``` nginx -s reload ``` 默认包含的 “combined” 的日志格式,会包括[一系列关键的数据](http://nginx.org/en/docs/http/ngx_http_log_module.html#log_format),如实际的 HTTP 请求和相应的响应代码。在下面的示例日志中,NGINX 记录了请求 /index.html 时的 200(成功)状态码和访问不存在的请求文件 /fail 的 404(未找到)错误。 ``` 127.0.0.1 - - [19/Feb/2015:12:10:46 -0500] "GET /index.html HTTP/1.1" 200 612 "-" "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/40.0.2214.111 Safari 537.36" 127.0.0.1 - - [19/Feb/2015:12:11:05 -0500] "GET /fail HTTP/1.1" 404 570 "-" "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/40.0.2214.111 Safari/537.36" ``` 你可以通过在 NGINX 配置文件中的 http 块添加一个新的日志格式来记录请求处理时间: ``` log_format nginx '$remote_addr - $remote_user [$time_local] ' '"$request" $status $body_bytes_sent $request_time ' '"$http_referer" "$http_user_agent"'; ``` 并修改配置文件中 **server** 块的 access\_log 行: ``` access_log logs/host.access.log nginx; ``` 重新加载配置文件后(运行 `nginx -s reload`),你的访问日志将包括响应时间,如下所示。单位为秒,精度到毫秒。在这个例子中,服务器接收到一个对 /big.pdf 的请求时,发送 33973115 字节后返回 206(成功)状态码。处理请求用时 0.202 秒(202毫秒): ``` 127.0.0.1 - - [19/Feb/2015:15:50:36 -0500] "GET /big.pdf HTTP/1.1" 206 33973115 0.202 "-" "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/40.0.2214.111 Safari/537.36" ``` 你可以使用各种工具和服务来解析和分析 NGINX 日志。例如,[rsyslog](http://www.rsyslog.com/) 可以监视你的日志,并将其传递给多个日志分析服务;你也可以使用自由开源工具,比如 [logstash](https://www.elastic.co/products/logstash) 来收集和分析日志;或者你可以使用一个统一日志记录层,如 [Fluentd](http://www.fluentd.org/) 来收集和解析你的 NGINX 日志。 ### 结论 监视 NGINX 的哪一项指标将取决于你可用的工具,以及监控指标所提供的信息是否满足你们的需要。举例来说,错误率的收集是否足够重要到需要你们购买 NGINX Plus ,还是架设一个可以捕获和分析日志的系统就够了? 在 Datadog 中,我们已经集成了 NGINX 和 NGINX Plus,这样你就可以以最小的设置来收集和监控所有 Web 服务器的指标。[在本文中](https://www.datadoghq.com/blog/how-to-monitor-nginx-with-datadog/)了解如何用 NGINX Datadog 来监控 ,并开始 [Datadog 的免费试用](https://www.datadoghq.com/blog/how-to-collect-nginx-metrics/#sign-up)吧。 --- via: <https://www.datadoghq.com/blog/how-to-collect-nginx-metrics/> 作者:K Young 译者:[strugglingyouth](https://github.com/strugglingyouth) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
200
OK
[How to get the NGINX metrics you need](#how-to-get-the-nginx-metrics-you-need) How you go about capturing metrics depends on which version of NGINX you are using, as well as which metrics you wish to access. (See [the companion article](https://www.datadoghq.com/blog/how-to-monitor-nginx/) for an in-depth exploration of NGINX metrics.) Free, open source NGINX and the commercial product NGINX Plus both have status modules that report metrics, and NGINX can also be configured to report certain metrics in its logs: Metric | Availability | || ---|---|---|---| | [NGINX Plus](#metrics-collection-nginx-plus) [NGINX logs](#metrics-collection-nginx-logs) [Metrics collection: NGINX (open source)](#metrics-collection-nginx-open-source) Open source NGINX exposes several basic metrics about server activity on a simple status page, provided that you have the HTTP [stub status module](http://nginx.org/en/docs/http/ngx_http_stub_status_module.html) enabled. To check if the module is already enabled, run: ``` nginx -V 2>&1 | grep -o with-http_stub_status_module ``` The status module is enabled if you see `with-http_stub_status_module` as output in the terminal. If that command returns no output, you will need to enable the status module. You can use the `--with-http_stub_status_module` configuration parameter when [building NGINX from source](https://www.nginx.com/resources/wiki/start/topics/tutorials/installoptions/): ``` ./configure \ … \ --with-http_stub_status_module make sudo make install ``` After verifying the module is enabled or enabling it yourself, you will also need to modify your NGINX configuration to set up a locally accessible URL (e.g., `/nginx_status` ) for the status page: ``` server { location /nginx_status { stub_status; access_log off; allow 127.0.0.1; deny all; } } ``` Note: The `server` blocks of the NGINX config are usually found not in the main configuration file (e.g., `/etc/nginx/nginx.conf` ) but in supplemental configuration files that are referenced by the main config. To find the relevant configuration files, first locate the main config by running: ``` nginx -t ``` Open the configuration file listed, and look for lines beginning with `include` near the end of the `http` block, such as: ``` include /etc/nginx/conf.d/*.conf; ``` In one of the referenced config files you should find the main `server` block, which you can modify as above to configure NGINX metrics reporting. After changing any configurations, reload the configs by executing: ``` nginx -s reload ``` Now you can view the status page to see your metrics: ``` Active connections: 24 server accepts handled requests 1156958 1156958 4491319 Reading: 0 Writing: 18 Waiting : 6 ``` Note that if you are trying to access the status page from a remote machine, you will need to edit your status configuration to allow the remote machine’s IP address, just as 127.0.0.1 is allowed in the configuration snippet above. The NGINX status page is an easy way to get a quick snapshot of your metrics, but for continuous monitoring you will need to automatically record that data at regular intervals. Parsers for the NGINX status page already exist for monitoring tools such as [Nagios](https://exchange.nagios.org/directory/Plugins/Web-Servers/nginx) and [Datadog](https://docs.datadoghq.com/integrations/nginx/), as well as for the statistics collection daemon [collectD](https://collectd.org/wiki/index.php/Plugin:nginx). [Metrics collection: NGINX Plus](#metrics-collection-nginx-plus) The commercial NGINX Plus provides [many more metrics](http://nginx.org/en/docs/http/ngx_http_api_module.html#definitions) through its ngx_http_api_module than are available in open source NGINX. Among the additional metrics exposed by NGINX Plus are bytes streamed, as well as information about upstream systems and caches. NGINX Plus also reports counts of all HTTP status code types (1xx, 2xx, 3xx, 4xx, 5xx). A sample NGINX Plus status board is available [here](http://demo.nginx.com/status.html). *Note: the “Active” connections on the NGINX Plus status dashboard are defined slightly differently than the Active state connections in the metrics collected via the open source NGINX stub status module. In NGINX Plus metrics, Active connections do not include connections in the Waiting state (aka Idle connections).* NGINX Plus also reports [metrics in JSON format](http://demo.nginx.com/api/3) for easier integration with external monitoring systems. With NGINX Plus, you can see the metrics and health status for a given upstream grouping of servers, or drill down to get a count of just the response codes from a single server in that upstream. Sending a request to `/http/server_zones/<SERVER_ZONE_NAME>` , for example, will [return metrics](http://nginx.org/en/docs/http/ngx_http_api_module.html#http_server_zones_http_server_zone_name) resembling the following JSON object, which you can access in the NGINX Plus [live demo API](http://demo.nginx.com/api/3/http/server_zones): ``` { "processing": 0, "requests": 50818, "responses": { "1xx": 0, "2xx": 46127, "3xx": 3822, "4xx": 825, "5xx": 1, "total": 50775 }, "discarded": 43, "received": 14137130, "sent": 1429876113 } ``` To [enable](https://www.nginx.com/blog/live-activity-monitoring-nginx-plus-3-simple-steps/) the NGINX Plus metrics dashboard, you can add a status `server` block inside the `http` block of your NGINX configuration. ([See the section above](#metrics-collection-nginx-open-source) on collecting metrics from open source NGINX for instructions on locating the relevant config files.) For example, to set up a status dashboard at `http://<SERVER_IP_ADDRESS>:8080/status.html` and a JSON interface at `http://<SERVER_IP_ADDRESS>:8080/status` , you would add the following server block: ``` server { listen 8080; root /usr/share/nginx/html; location /status { api; } location = /status.html { } } ``` You can find an annotated example of a config file for an NGINX Plus status module [here](https://gist.githubusercontent.com/nginx-gists/a51341a11ff1cf4e94ac359b67f1c4ae/raw/bf9b68cca20c87f303004913a6a9e9032f24d143/nginx-plus-api.conf). To collect metrics from an upstream server group on your dashboard, you’ll need to add a `status_zone` [directive](http://nginx.org/en/docs/http/ngx_http_api_module.html#directives) to your `server` block. The status pages should be live once you reload your NGINX configuration: ``` nginx -s reload ``` The official NGINX Plus docs have [more details](http://nginx.org/en/docs/http/ngx_http_api_module.html#example) on how to configure the expanded status module. [Metrics collection: NGINX logs](#metrics-collection-nginx-logs) NGINX’s [log module](http://nginx.org/en/docs/http/ngx_http_log_module.html) writes configurable access logs to a destination of your choosing. You can customize the format of your logs and the data they contain by [adding or subtracting variables](http://nginx.org/en/docs/http/ngx_http_log_module.html#log_format). The simplest way to capture detailed logs is to add the following line in the `server` block of your config file (see [the section](#metrics-collection-nginx-open-source) on collecting metrics from open source NGINX for instructions on locating your config files): ``` access_log logs/host.access.log combined; ``` After changing any NGINX configurations, reload the configs by executing: ``` nginx -s reload ``` The “combined” log format, included by default, captures [a number of key datapoints](http://nginx.org/en/docs/http/ngx_http_log_module.html#log_format), such as the actual HTTP request and the corresponding response code. In the example logs below, NGINX logged a 200 (success) status code for a request for /index.html and a 404 (not found) error for the nonexistent /fail. ``` 127.0.0.1 - - [19/Feb/2015:12:10:46 -0500] "GET /index.html HTTP/1.1" 200 612 "-" "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/40.0.2214.111 Safari 537.36" 127.0.0.1 - - [19/Feb/2015:12:11:05 -0500] "GET /fail HTTP/1.1" 404 570 "-" "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/40.0.2214.111 Safari/537.36" ``` You can log request processing time as well by adding a new log format to the `http` block of your NGINX config file: ``` log_format nginx '$remote_addr - $remote_user [$time_local] ' '"$request" $status $body_bytes_sent $request_time ' '"$http_referer" "$http_user_agent"'; ``` And by adding or modifying the `access_log` line in the `server` block of your config file (the `nginx` parameter names the format we defined earlier): ``` access_log logs/host.access.log nginx; ``` After reloading the updated configs (by running `nginx -s reload` ), your access logs will include response times, as seen below. The units are seconds, with millisecond resolution. In this instance, the server received a request for /big.pdf, returning a 206 (success) status code after sending 33973115 bytes. Processing the request took 0.202 seconds (202 milliseconds): ``` 127.0.0.1 - - [19/Feb/2015:15:50:36 -0500] "GET /big.pdf HTTP/1.1" 206 33973115 0.202 "-" "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/40.0.2214.111 Safari/537.36" ``` You can use a variety of tools and services to parse and analyze NGINX logs. For instance, [rsyslog](https://github.com/rsyslog/rsyslog) can monitor your logs and pass them to any number of log-analytics services; you can use a free, open source tool such as [logstash](https://www.elastic.co/products/logstash) to collect and analyze logs; or you can use a unified logging layer such as [Fluentd](http://www.fluentd.org/) to collect and parse your NGINX logs. You can also use Datadog to collect and analyze NGINX logs, which we’ll explore in [part 3](https://www.datadoghq.com/blog/how-to-monitor-nginx-with-datadog/) of this series. [Conclusion](#conclusion) Which NGINX metrics you monitor will depend on the tools available to you, and whether the insight provided by a given metric justifies the overhead of monitoring that metric. For instance, is measuring error rates important enough to your organization to justify investing in NGINX Plus or implementing a system to capture and analyze logs? At Datadog, we have built a single integration that supports both NGINX and NGINX Plus so that you can begin collecting and monitoring metrics from all your web servers with a minimum of setup. Learn how to monitor NGINX metrics with Datadog [in this post](https://www.datadoghq.com/blog/how-to-monitor-nginx-with-datadog/), and get started right away with [a free trial of Datadog](#). *Source Markdown for this post is available on GitHub. Questions, corrections, additions, etc.? Please let us know.*
5,992
Linux有问必答:如何在Linux上安装Git
http://ask.xmodulo.com/install-git-linux.html
2015-08-11T10:41:24
[ "git" ]
/article-5992-1.html
> > **问题:** 我尝试从一个Git公共仓库克隆项目,但出现了这样的错误提示:“git: command not found”。 请问我该如何在某某发行版上安装Git? > > > Git是一个流行的开源版本控制系统(VCS),最初是为Linux环境开发的。跟CVS或者SVN这些版本控制系统不同的是,Git的版本控制被认为是“分布式的”,某种意义上,git的本地工作目录可以作为一个功能完善的仓库来使用,它具备完整的历史记录和版本追踪能力。在这种工作模型之下,各个协作者将内容提交到他们的本地仓库中(与之相对的会总是提交到核心仓库),如果有必要,再有选择性地推送到核心仓库。这就为Git这个版本管理系统带来了大型协作系统所必须的可扩展能力和冗余能力。 ![](/data/attachment/album/201508/11/104131eabj44az8413veaa.jpg) ### 使用包管理器安装Git Git已经被所有的主流Linux发行版所支持。所以安装它最简单的方法就是使用各个Linux发行版的包管理器。 **Debian, Ubuntu, 或 Linux Mint** ``` $ sudo apt-get install git ``` **Fedora, CentOS 或 RHEL** ``` $ sudo yum install git 或 $ sudo dnf install git ``` **Arch Linux** ``` $ sudo pacman -S git ``` **OpenSUSE** ``` $ sudo zypper install git ``` **Gentoo** ``` $ emerge --ask --verbose dev-vcs/git ``` ### 从源码安装Git 如果由于某些原因,你希望从源码安装Git,按照如下介绍操作。 **安装依赖包** 在构建Git之前,先安装它的依赖包。 **Debian, Ubuntu 或 Linux Mint** ``` $ sudo apt-get install libcurl4-gnutls-dev libexpat1-dev gettext libz-dev libssl-dev asciidoc xmlto docbook2x ``` **Fedora, CentOS 或 RHEL** ``` $ sudo yum install curl-devel expat-devel gettext-devel openssl-devel zlib-devel asciidoc xmlto docbook2x ``` #### 从源码编译Git 从 <https://github.com/git/git/releases> 下载最新版本的Git。然后在/usr下构建和安装。 注意,如果你打算安装到其他目录下(例如:/opt),那就把"--prefix=/usr"这个配置命令使用其他路径替换掉。 ``` $ cd git-x.x.x $ make configure $ ./configure --prefix=/usr $ make all doc info $ sudo make install install-doc install-html install-info ``` --- via: <http://ask.xmodulo.com/install-git-linux.html> 作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[mr-ping](https://github.com/mr-ping) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /install-git-linux.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c5150>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)"))
null
5,996
有了 Linux,你就可以搭建自己的超级计算机
http://www.computerworld.com/article/2960701/linux/for-linux-supercomputers-r-us.html
2015-08-12T07:26:00
[ "超级计算机" ]
https://linux.cn/article-5996-1.html
> > 几乎所有超级计算机上运行的系统都是 Linux,其中包括那些由树莓派(Raspberry Pi)板卡和 PlayStation 3游戏机组成的计算机。 > > > ![](/data/attachment/album/201508/12/070524ccxxtp07bqylyyyy.png) 超级计算机是一种严肃的工具,做的都是高大上的计算。它们往往从事于严肃的用途,比如原子弹模拟、气候模拟和高等物理学。当然,它们的花费也很高大上。在最新的超级计算机 [Top500](http://www.top500.org/) 排名中,中国国防科技大学研制的天河 2 号位居第一,而天河 2 号的建造耗资约 3.9 亿美元! 但是,也有一个超级计算机,是由博伊西州立大学电气和计算机工程系的一名在读博士 Joshua Kiepert [用树莓派构建完成](http://www.zdnet.com/article/build-your-own-supercomputer-out-of-raspberry-pi-boards/)的,其建造成本低于2000美元。 不,这不是我编造的。它一个真实的超级计算机,由超频到 1GHz 的 [B 型树莓派](https://www.raspberrypi.org/products/model-b/)的 ARM11 处理器与 VideoCore IV GPU 组成。每个都配备了 512MB 的内存、一对 USB 端口和 1 个 10/100 BaseT 以太网端口。 那么天河 2 号和博伊西州立大学的超级计算机有什么共同点吗?它们都运行 Linux 系统。世界最快的超级计算机[前 500 强中有 486](http://www.zdnet.com/article/linux-still-rules-supercomputing/) 个也同样运行的是 Linux 系统。这是从 20 多年前就开始的格局。而现在的趋势是超级计算机开始由廉价单元组成,因为 Kiepert 的机器并不是唯一一个无所谓预算的超级计算机。 麻省大学达特茅斯分校的物理学副教授 Gaurav Khanna 创建了一台超级计算机仅用了[不足 200 台的 PlayStation3 视频游戏机](http://www.nytimes.com/2014/12/23/science/an-economical-way-to-save-progress.html?smid=fb-nytimes&smtyp=cur&bicmp=AD&bicmlukp=WT.mc_id&bicmst=1409232722000&bicmet=1419773522000&_r=4)。 PlayStation 游戏机由一个 3.2 GHz 的基于 PowerPC 的 Power 处理器所驱动。每个都配有 512M 的内存。你现在仍然可以花 200 美元买到一个,尽管索尼将在年底逐步淘汰它们。Khanna 仅用了 16 个 PlayStation 3 构建了他第一台超级计算机,所以你也可以花费不到 4000 美元就拥有你自己的超级计算机。 这些机器可能是用玩具建成的,但他们不是玩具。Khanna 已经用它做了严肃的天体物理学研究。一个白帽子黑客组织使用了类似的 [PlayStation 3 超级计算机在 2008 年破解了 SSL 的 MD5 哈希算法](http://www.computerworld.com/article/2529932/cybercrime-hacking/researchers-hack-verisign-s-ssl-scheme-for-securing-web-sites.html)。 两年后,美国空军研究实验室研制的 [Condor Cluster,使用了 1760 个索尼的 PlayStation 3 的处理器](http://phys.org/news/2010-12-air-playstation-3s-supercomputer.html)和168 个通用的图形处理单元。这个低廉的超级计算机,每秒运行约 500 TFLOP ,即每秒可进行 500 万亿次浮点运算。 其他的一些便宜且适用于构建家庭超级计算机的构件包括,专业并行处理板卡,比如信用卡大小的 [99 美元的 Parallella 板卡](http://www.zdnet.com/article/parallella-the-99-linux-supercomputer/),以及高端显卡,比如 [Nvidia 的 Titan Z](http://blogs.nvidia.com/blog/2014/03/25/titan-z/) 和 [AMD 的 FirePro W9100](http://www.amd.com/en-us/press-releases/Pages/amd-flagship-professional-2014apr7.aspx)。这些高端板卡的市场零售价约 3000 美元,一些想要一台梦幻般的机器的玩家为此参加了[英特尔极限大师赛:英雄联盟世界锦标赛](http://en.intelextrememasters.com/news/check-out-the-intel-extreme-masters-katowice-prize-money-distribution/),要是甚至有机会得到了第一名的话,能获得超过 10 万美元奖金。另一方面,一个能够自己提供超过 2.5TFLOPS 计算能力的计算机,对于科学家和研究人员来说,这为他们提供了一个可以拥有自己专属的超级计算机的经济的方法。 而超级计算机与 Linux 的连接,这一切都始于 1994 年戈达德航天中心的第一个名为 [Beowulf 超级计算机](http://www.beowulf.org/overview/history.html)。 按照我们的标准,Beowulf 不能算是最优越的。但在那个时期,作为第一台自制的超级计算机,它的 16 个英特尔486DX 处理器和 10Mbps 的以太网总线,是个伟大的创举。[Beowulf 是由美国航空航天局的承建商 Don Becker 和 Thomas Sterling 所设计的](http://yclept.ucdavis.edu/Beowulf/aboutbeowulf.html),是第一台“创客”超级计算机。它的“计算部件” 486DX PC,成本仅有几千美元。尽管它的速度只有个位数的 GFLOPS (吉拍,每秒10亿次)浮点运算,[Beowulf](http://www.beowulf.org/) 表明了你可以用商用现货(COTS)硬件和 Linux 创建超级计算机。 我真希望我参与创建了一部分,但是我 1994 年就离开了戈达德,开始了作为一名全职的科技记者的职业生涯。该死。 但是尽管我只是使用笔记本的记者,我依然能够体会到 COTS 和开源软件是如何永远的改变了超级计算机。我希望现在读这篇文章的你也能。因为,无论是 Raspberry Pi 集群,还是超过 300 万个英特尔的 Ivy Bridge 和 Xeon Phi 芯片的庞然大物,几乎所有当代的超级计算机都可以追溯到 Beowulf。 --- via: <http://www.computerworld.com/article/2960701/linux/for-linux-supercomputers-r-us.html> 作者:[Steven J. Vaughan-Nichols](http://www.computerworld.com/author/Steven-J.-Vaughan_Nichols/) 译者:[xiaoyu33](https://github.com/xiaoyu33) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,010
一个开源的世界
https://opensource.com/business/14/12/jim-whitehurst-inspiration-open-source
2015-08-14T07:53:00
[ "开源" ]
/article-6010-1.html
![](/data/attachment/album/201508/12/235424tgj1ng5gnfcocv58.png) 经过了一整天的Opensource.com[社区版主](http://opensource.com/community-moderator-program)年会,最后一项日程提了上来,内容只有“特邀嘉宾:待定”几个字。作为[Opensource.com](http://opensource.com/)的项目负责人和社区管理员,[Jason Hibbets](https://twitter.com/jhibbets)起身解释道,“因为这个嘉宾有可能无法到场,因此我不想提前说是谁。在几个月前我问他何时有空过来,他给了我两个时间点,我选了其中一个。今天是这三周中Jim唯一能来的一天”。(译者注:Jim是指下文中提到的Jim Whitehurst,即红帽公司总裁兼首席执行官) 这句话在版主们(Moderators)中引起一阵轰动,他们从世界各地赶来参加此次的[拥抱开源大会(All Things Open Conference)](http://allthingsopen.org/)。版主们纷纷往前挪动椅子,仔细聆听。 “他会首先作半个小时的演讲,然后会回答几个提问。”,Jason说道。 会场的门开着,似乎一直在等着这位大人物的出现。这时,会场前唯一一个空位上来了一位高个子。 “大家好!”,这个家伙开口了。他没穿正装,只是衬衫和休闲裤。 这时会场中第二高个子的人,红帽全球意识部门(Global Awareness)的高级主管[Jeff Mackanic](http://opensource.com/users/mackanic),告诉他大部分社区版主今天都在场,然后让每个人开始作简单的自我介绍。 “我叫[Jen Wike Huger](https://twitter.com/JenWike),负责Opensource.com的内容管理,很高兴见到大家。” “我叫[Nicole](http://opensource.com/users/nengard)。是[ByWater Solutions](http://bywatersolutions.com/)的副总裁,我们在做免费的开源库。我到各地旅行并教会人们如何使用软件。” “我叫[Robin](http://opensource.com/life/13/7/community-spotlight-robin-muilwijk),从2013年开始参与版主项目。我在OSDC做了一些事情,工作是在[City of the Hague](https://en.wikipedia.org/wiki/The_Hague)维护[网站](http://www.denhaag.nl/en.htm)。” “我叫[Marcus Hanwell](https://twitter.com/mhanwell),来自英格兰,在[Kitware](http://www.kitware.com/)工作。同时,我是FOSS science software的技术总监,和国家实验室在[Titan](http://www.nvidia.com/gtx-700-graphics-cards/gtx-titan-z/) Z和[Gpu programming](https://en.wikipedia.org/wiki/General-purpose_computing_on_graphics_processing_units)方面合作。我主要使用[Gentoo](https://www.gentoo.org/)和[KDE](http://kde.org/)。最后,我很激动能参与到FOSS和开源科学。” “我叫[Phil Shapiro](https://twitter.com/philshapiro),是华盛顿的一个小图书馆的28个Linux工作站的管理员。我视各位为我的同事。非常高兴能一起交流分享,贡献力量。我主要关注FOSS和自豪感的关系,以及FOSS如何提升自豪感。” “我叫[Joshua Holm](http://opensource.com/community/13/9/contributor-spotlight-joshua-holm)。我大多数时间都在关注系统更新,以及帮助人们在网上找工作。” “我叫[Mel Chernoff](http://opensource.com/users/melanie),在红帽工作,和[Jason Hibbets](https://twitter.com/jhibbets)和[Mark Bohannon](https://twitter.com/markbotech)一起主要关注[政府](http://opensource.com/government)渠道方面。” “我叫[Scott Nesbitt](http://scottnesbitt.me/),写过很多东西,使用FOSS很久了。我是个普通人,不是系统管理员,也不是程序员,只希望能更加高效工作。我帮助人们在商业和生活中使用FOSS。” “我叫[Luis Ibanez](http://opensource.com/users/luis-ibanez),刚加入[Google](http://google.com/)。我对DIY和FOSS感兴趣。” “我叫[Remy DeCausemaker](http://twitter.com/remy_d),在[RIT MAGIC Center](http://foss.rit.edu/)的黑客学院(Resident Hackademic),也是[交互式游戏和媒体系](http://igm.rit.edu/)的一个兼职教授。现在为Opensource.com写作将近四年。” “你在[新FOSS Minor](http://www.rit.edu/news/story.php?id=50590)教书?!”,Jim说道,“很酷!” “我叫[Jason Baker](https://twitter.com/jehb)。我是红帽的一个云专家,主要做[OpenStack](http://openstack.org/)方面的工作。” “我叫[Mark Bohannan](https://twitter.com/markbotech),是红帽全球开放协议的一员,在华盛顿外工作。和Mel一样,我花了相当多时间写作,也从法律和政府部门中找合作者。我做了一个很好的小册子来讨论正在发生在政府中的积极变化。” “我叫[Jason Hibbets](https://twitter.com/jhibbets),我组织了这次讨论。” 会场中一片笑声。 “我也组织了这个讨论,可以这么说,”这个棕红色头发笑容灿烂的家伙说道。笑声持续一会逐渐平息。 我当时在他左边,时不时从记录的间隙中抬头看一眼,我注意到淡淡微笑背后的那个令人瞩目的人,是自2008年1月起开始领导红帽公司的CEO [Jim Whitehurst](http://www.redhat.com/en/about/company/management/james-whitehurst)。 “我有世界上最好的工作,”稍稍向后靠、叉腿抱头,Whitehurst开始了演讲。“我开始领导红帽,在世界各地旅行到处看看情况。在这里的七年中,FOSS和广泛的开源创新所发生的最美好的事情是开源已经脱离了条条框框。我现在认为,信息技术正处在FOSS之前所在的位置。我们可以预见FOSS从一个替代品走向创新驱动力。我们的用户也看到了这一点。他们用FOSS并不是因为它便宜,而是因为它能带来可控和创新的解决方案。这也是个全球现象。比如,我刚才还在印度,然后发现那里的用户拥抱开源的两个理由:一个是创新,另一个是那里的市场有些特殊,需要完全的可控。” “[孟买证券交易所](http://www.bseindia.com/)想得到源代码并加以控制,五年前这种事情在证券交易领域就没有听说过。那时FOSS正在重复发明轮子。今天看来,实际上大数据的每件事情都出现在FOSS领域。几乎所有的新框架,语言和方法论,包括移动通讯(尽管不包括设备),都首先发生在开源世界。” “这是因为用户数量已经达到了相当的规模。这不只是红帽遇到的情况,[Google](http://google.com/),[Amazon](https://mail.corp.redhat.com/service/home/%7E/Amazon),[Facebook](https://mail.corp.redhat.com/service/home/%7E/Facebook)等也出现这样的情况。他们想解决自己的问题,用开源的方式。忘掉许可协议吧,开源绝不仅如此。我们建立了一个交通工具,一套规则,例如[Hadoop](https://hadoop.apache.org/),[Cassandra](https://cassandra.apache.org/)和其他工具。事实上,开源驱动创新。例如,Hadoop是在厂商们意识到规模带来的问题时的一个解决方案。他们实际上有足够的资金和资源来解决自己的问题。开源是许多领域的默认技术方案。这在一个更加注重内容的世界中更是如此,例如[3D打印](https://en.wikipedia.org/wiki/3D_printing)和其他使用信息内容的实体产品。” “源代码的开源确实很酷,但开源不应当仅限于此。在各行各业不同领域开源仍有可以用武之地。我们要问下自己:‘开源能够为教育,政府,法律带来什么?其它的呢?其它的领域如何能学习我们?’” “还有内容的问题。内容在现在是免费的,当然我们可以投资更多的免费内容,不过我们也需要商业模式围绕的内容。这是我们更应该关注的。如果你相信开放的创新更好,那么我们需要更多的商业模式。” “教育让我担心,其相比与‘社区’它更关注‘内容’。例如,无论我走到哪里,大学的校长们都会说,‘等等,难道教育将会免费?!’对于下游来说FOSS免费很棒,但别忘了上游很强大。免费课程很棒,但我们同样需要社区来不断迭代和完善。这是很多人都在做的事情,Opensource.com是一个提供交流的社区。问题不是‘我们如何控制内容’,也不是‘如何建立和分发内容’,而是要确保它处在不断的完善当中,而且能给其他领域提供有价值的参考。” “改变世界的潜力是无穷无尽的,我们已经取得了很棒的进步。”六年前我们痴迷于制定宣言,我们说‘我们是领导者’。我们用错词了,因为那潜在意味着控制。积极的参与者们同样也不能很好理解……[Máirín Duffy](https://twitter.com/mairin)提出了[催化剂](http://jobs.redhat.com/life-at-red-hat/our-culture/)这个词。然后我们组成了红帽,不断地促进行动,指引方向。” “Opensource.com也是其他领域的催化剂,而这正是它的本义所在,我希望你们也这样认为。当时的内容质量和现在比起来都令人难以置信。你可以看到每季度它都在进步。谢谢你们付出的时间!谢谢成为了催化剂!这是一个让世界变得更好的机会。我想听听你们的看法。” 我瞥了一下桌子,发现几个人眼中带泪。 然后Whitehurst又回顾了大会的开放教育议题。“极端一点看,如果你有一门[Ulysses](http://www.gutenberg.org/ebooks/4300)的公开课。在这里你能和一群人一起合作体验课堂。这样就和代码块一样的:大家一起努力,代码随着时间不断改进。” 在这一点上,我有发言权。当谈论其FOSS和学术团体之间的差异,像“基础”和“可能不调和”这些词语都跳了出来。 **Remy**: “倒退带来死亡。如果你在论文或者发布的代码中犯了一个错误,有可能带来十分严重的后果。学校一直都是避免失败寻求正确答案的地方。复制意味着抄袭。轮子在一遍遍地教条地被发明。FOSS让你能快速失败,但在学术界,你只能带来无效的结果。” **Nicole**: “学术界有太多自我的家伙,你们需要一个发布经理。” **Marcus**: “为了合作,你必须展示自己不懂的地方,这些发生在幕后。奖励模型是所有你信任的东西,我们需要改变它。尽可能多地发表,我们最后会发布,但希望能尽早地释放努力。” **Luis**: “团队和分享应该优先考虑,红帽可以多向它们强调这一点。” **Jim**: “还有公司在其中扮演积极角色了吗?” [Phil Shapiro](https://twitter.com/philshapiro): “我对FOSS的临界点感兴趣。Fed没有改用[LibreOffice](http://libreoffice.org/)把我逼疯了。我们没有在软件上花税款,也不应当在字处理软件或者微软的Office上浪费税钱。” **Jim**: “我们经常提倡这一点。我们能做更多吗?这是个问题。首先,我们在我们的产品涉足的地方取得了进步。我们在政府中有坚实的专营权。我们比私有公司平均花费更多。银行和电信业都和政府挨着。我们在欧洲做的更好,我认为在那工作有更低的税。下一代计算就像‘终结者’,我们到处取得了进步,但仍然需要忧患意识。” 突然,门开了。Jim转身向门口站着的执行助理点头。他要去参加下一场会了。他并拢双腿,站着向前微倾。然后,他再次向每个人的工作和奉献表示感谢,微笑着出了门……留给我们更多的激励。 --- via: <https://opensource.com/business/14/12/jim-whitehurst-inspiration-open-source> 作者:[Remy](https://opensource.com/users/remyd) 译者:[fyh](https://github.com/fyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPSConnectionPool(host='opensource.com', port=443): Read timed out. (read timeout=10)
null
6,014
Linux 日志基础
http://www.loggly.com/ultimate-guide/logging/linux-logging-basics/
2015-08-13T14:31:00
[ "日志" ]
https://linux.cn/article-6014-1.html
首先,我们将描述有关 Linux 日志是什么,到哪儿去找它们,以及它们是如何创建的基础知识。如果你已经知道这些,请随意跳至下一节。 ### Linux 系统日志 许多有价值的日志文件都是由 Linux 自动地为你创建的。你可以在 `/var/log` 目录中找到它们。下面是在一个典型的 Ubuntu 系统中这个目录的样子: ![](/data/attachment/album/201508/13/155548x6g05ooo05er056p.png) 一些最为重要的 Linux 系统日志包括: * `/var/log/syslog` 或 `/var/log/messages` 存储所有的全局系统活动数据,包括开机信息。基于 Debian 的系统如 Ubuntu 在 `/var/log/syslog` 中存储它们,而基于 RedHat 的系统如 RHEL 或 CentOS 则在 `/var/log/messages` 中存储它们。 * `/var/log/auth.log` 或 `/var/log/secure` 存储来自可插拔认证模块(PAM)的日志,包括成功的登录,失败的登录尝试和认证方式。Ubuntu 和 Debian 在 `/var/log/auth.log` 中存储认证信息,而 RedHat 和 CentOS 则在 `/var/log/secure` 中存储该信息。 * `/var/log/kern` 存储内核的错误和警告数据,这对于排除与定制内核相关的故障尤为实用。 * `/var/log/cron` 存储有关 cron 作业的信息。使用这个数据来确保你的 cron 作业正成功地运行着。 Digital Ocean 有一个关于这些文件的完整[教程](https://www.digitalocean.com/community/tutorials/how-to-view-and-configure-linux-logs-on-ubuntu-and-centos),介绍了 rsyslog 如何在常见的发行版本如 RedHat 和 CentOS 中创建它们。 应用程序也会在这个目录中写入日志文件。例如像 Apache,Nginx,MySQL 等常见的服务器程序可以在这个目录中写入日志文件。其中一些日志文件由应用程序自己创建,其他的则通过 syslog (具体见下文)来创建。 ### 什么是 Syslog? Linux 系统日志文件是如何创建的呢?答案是通过 syslog 守护程序,它在 syslog 套接字 `/dev/log` 上监听日志信息,然后将它们写入适当的日志文件中。 单词“syslog” 代表几个意思,并经常被用来简称如下的几个名称之一: 1. **Syslog 守护进程** — 一个用来接收、处理和发送 syslog 信息的程序。它可以[远程发送 syslog](https://docs.google.com/document/d/11LXZxWlkNSHkcrCWTUdnLRf_CiZz9kK0cr3yGM_BU_0/edit#heading=h.y2e9tdfk1cdb) 到一个集中式的服务器或写入到一个本地文件。常见的例子包括 rsyslogd 和 syslog-ng。在这种使用方式中,人们常说“发送到 syslog”。 2. **Syslog 协议** — 一个指定日志如何通过网络来传送的传输协议和一个针对 syslog 信息(具体见下文) 的数据格式的定义。它在 [RFC-5424](https://tools.ietf.org/html/rfc5424) 中被正式定义。对于文本日志,标准的端口是 514,对于加密日志,端口是 6514。在这种使用方式中,人们常说“通过 syslog 传送”。 3. **Syslog 信息** — syslog 格式的日志信息或事件,它包括一个带有几个标准字段的消息头。在这种使用方式中,人们常说“发送 syslog”。 Syslog 信息或事件包括一个带有几个标准字段的消息头,可以使分析和路由更方便。它们包括时间戳、应用程序的名称、在系统中信息来源的分类或位置、以及事件的优先级。 下面展示的是一个包含 syslog 消息头的日志信息,它来自于控制着到该系统的远程登录的 sshd 守护进程,这个信息描述的是一次失败的登录尝试: ``` <34>1 2003-10-11T22:14:15.003Z server1.com sshd - - pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=10.0.2.2 ``` ### Syslog 格式和字段 每条 syslog 信息包含一个带有字段的信息头,这些字段是结构化的数据,使得分析和路由事件更加容易。下面是我们使用的用来产生上面的 syslog 例子的格式,你可以将每个值匹配到一个特定的字段的名称上。 ``` <%pri%>%protocol-version% %timestamp:::date-rfc3339% %HOSTNAME% %app-name% %procid% %msgid% %msg%n ``` 下面,你将看到一些在查找或排错时最常使用的 syslog 字段: #### 时间戳 [时间戳](https://tools.ietf.org/html/rfc5424#section-6.2.3) (上面的例子为 2003-10-11T22:14:15.003Z) 暗示了在系统中发送该信息的时间和日期。这个时间在另一系统上接收该信息时可能会有所不同。上面例子中的时间戳可以分解为: * **2003-10-11** 年,月,日。 * **T** 为时间戳的必需元素,它将日期和时间分隔开。 * **22:14:15.003** 是 24 小时制的时间,包括进入下一秒的毫秒数(**003**)。 * **Z** 是一个可选元素,指的是 UTC 时间,除了 Z,这个例子还可以包括一个偏移量,例如 -08:00,这意味着时间从 UTC 偏移 8 小时,即 PST 时间。 #### 主机名 [主机名](https://tools.ietf.org/html/rfc5424#section-6.2.4) 字段(在上面的例子中对应 server1.com) 指的是主机的名称或发送信息的系统. #### 应用名 [应用名](https://tools.ietf.org/html/rfc5424#section-6.2.5) 字段(在上面的例子中对应 sshd:auth) 指的是发送信息的程序的名称. #### 优先级 优先级字段或缩写为 [pri](https://tools.ietf.org/html/rfc5424#section-6.2.1) (在上面的例子中对应 ) 告诉我们这个事件有多紧急或多严峻。它由两个数字字段组成:设备字段和紧急性字段。紧急性字段从代表 debug 类事件的数字 7 一直到代表紧急事件的数字 0 。设备字段描述了哪个进程创建了该事件。它从代表内核信息的数字 0 到代表本地应用使用的 23 。 Pri 有两种输出方式。第一种是以一个单独的数字表示,可以这样计算:先用设备字段的值乘以 8,再加上紧急性字段的值:(设备字段)(8) + (紧急性字段)。第二种是 pri 文本,将以“设备字段.紧急性字段” 的字符串格式输出。后一种格式更方便阅读和搜索,但占据更多的存储空间。 --- via: <http://www.loggly.com/ultimate-guide/logging/linux-logging-basics/> 作者:[Jason Skowronski](https://www.linkedin.com/in/jasonskowronski),[Amy Echeverri](https://www.linkedin.com/in/amyecheverri),[Sadequl Hussain](https://www.linkedin.com/pub/sadequl-hussain/14/711/1a7) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,029
如何更新 Linux 内核来提升系统性能
http://www.makeuseof.com/tag/update-linux-kernel-improved-system-performance/
2015-08-15T08:44:00
[ "Linux", "内核" ]
https://linux.cn/article-6029-1.html
![](/data/attachment/album/201508/15/004614ic6gyoiygmc89vy6.jpg) 目前的 [Linux 内核](http://www.makeuseof.com/tag/linux-kernel-explanation-laymans-terms/)的开发速度是前所未有的,大概每2到3个月就会有一个主要的版本发布。每个发布都带来几个的新的功能和改进,可以让很多人的处理体验更快、更有效率、或者其它的方面更好。 问题是,你不能在这些内核发布的时候就用它们,你要等到你的发行版带来新内核的发布。我们先前讲到[定期更新内核的好处](http://www.makeuseof.com/tag/5-reasons-update-kernel-linux/),所以你不必等到那时。让我们来告诉你该怎么做。 > > 免责声明: 我们先前的一些文章已经提到过,升级内核有(很小)的风险可能会破坏你系统。如果发生这种情况,通常可以通过使用旧内核来使系统保持工作,但是有时还是不行。因此我们对系统的任何损坏都不负责,你得自己承担风险! > > > ### 预备工作 要更新你的内核,你首先要确定你使用的是32位还是64位的系统。打开终端并运行: ``` uname -a ``` 检查一下输出的是 x86\_64 还是 i686。如果是 x86\_64,你就运行64位的版本,否则就运行32位的版本。千万记住这个,这很重要。 ![](/data/attachment/album/201508/15/004614ucfcp8t522u24228.jpg) 接下来,访问[官方的 Linux 内核网站](http://www.kernel.org/),它会告诉你目前稳定内核的版本。愿意的话,你可以尝试下发布预选版(RC),但是这比稳定版少了很多测试。除非你确定想要需要发布预选版,否则就用稳定内核。 ![](/data/attachment/album/201508/15/004615dmd6j9jbbb4rr761.jpg) ### Ubuntu 指导 对 Ubuntu 及其衍生版的用户而言升级内核非常简单,这要感谢 Ubuntu 主线内核 PPA。虽然,官方把它叫做 PPA,但是你不能像其他 PPA 一样将它添加到你软件源列表中,并指望它自动升级你的内核。实际上,它只是一个简单的网页,你应该浏览并下载到你想要的内核。 ![](/data/attachment/album/201508/15/004616m566iiqj563qj3mr.jpg) 现在,访问这个[内核 PPA 网页](http://kernel.ubuntu.com/%7Ekernel-ppa/mainline/),并滚到底部。列表的最下面会含有最新发布的预选版本(你可以在名字中看到“rc”字样),但是这上面就可以看到最新的稳定版(说的更清楚些,本文写作时最新的稳定版是4.1.2。LCTT 译注:这里虽然 4.1.2 是当时的稳定版,但是由于尚未进入 Ubuntu 发行版中,所以文件夹名称为“-unstable”)。点击文件夹名称,你会看到几个选择。你需要下载 3 个文件并保存到它们自己的文件夹中(如果你喜欢的话可以放在下载文件夹中),以便它们与其它文件相隔离: 1. 针对架构的含“generic”(通用)的头文件(我这里是64位,即“amd64”) 2. 放在列表中间,在文件名末尾有“all”的头文件 3. 针对架构的含“generic”内核文件(再说一次,我会用“amd64”,但是你如果用32位的,你需要使用“i686”) 你还可以在下面看到含有“lowlatency”(低延时)的文件。但最好忽略它们。这些文件相对不稳定,并且只为那些通用文件不能满足像音频录制这类任务想要低延迟的人准备的。再说一次,首选通用版,除非你有特定的任务需求不能很好地满足。一般的游戏和网络浏览不是使用低延时版的借口。 你把它们放在各自的文件夹下,对么?现在打开终端,使用`cd`命令切换到新创建的文件夹下,如 ``` cd /home/user/Downloads/Kernel ``` 接着运行: ``` sudo dpkg -i *.deb ``` 这个命令会标记文件夹中所有的“.deb”文件为“待安装”,接着执行安装。这是推荐的安装方法,因为不可以很简单地选择一个文件安装,它总会报出依赖问题。这这样一起安装就可以避免这个问题。如果你不清楚`cd`和`sudo`是什么。快速地看一下 [Linux 基本命令](http://www.makeuseof.com/tag/an-a-z-of-linux-40-essential-commands-you-should-know/)这篇文章。 ![](/data/attachment/album/201508/15/004616fkd16v1ijk8dbv9y.jpg) 安装完成后,**重启**你的系统,这时应该就会运行刚安装的内核了!你可以在命令行中使用`uname -a`来检查输出。 ### Fedora 指导 如果你使用的是 Fedora 或者它的衍生版,过程跟 Ubuntu 很类似。不同的是文件获取的位置不同,安装的命令也不同。 ![](/data/attachment/album/201508/15/004617ketn26hqe1lzohll.jpg) 查看 [最新 Fedora 内核构建](http://koji.fedoraproject.org/koji/packageinfo?packageID=8)列表。选取列表中最新的稳定版并翻页到下面选择 i686 或者 x86\_64 版。这取决于你的系统架构。这时你需要下载下面这些文件并保存到它们对应的目录下(比如“Kernel”到下载目录下): * kernel * kernel-core * kernel-headers * kernel-modules * kernel-modules-extra * kernel-tools * perf 和 python-perf (可选) 如果你的系统是 i686(32位)同时你有 4GB 或者更大的内存,你需要下载所有这些文件的 PAE 版本。PAE 是用于32位系统上的地址扩展技术,它允许你使用超过 3GB 的内存。 现在使用`cd`命令进入文件夹,像这样 ``` cd /home/user/Downloads/Kernel ``` 接着运行下面的命令来安装所有的文件 ``` yum --nogpgcheck localinstall *.rpm ``` 最后**重启**你的系统,这样你就可以运行新的内核了! #### 使用 Rawhide 另外一个方案是,Fedora 用户也可以[切换到 Rawhide](http://www.makeuseof.com/tag/bleeding-edge-linux-fedora-rawhide/),它会自动更新所有的包到最新版本,包括内核。然而,Rawhide 经常会破坏系统(尤其是在早期的开发阶段中),它**不应该**在你日常使用的系统中用。 ### Arch 指导 [Arch 用户](http://www.makeuseof.com/tag/arch-linux-letting-you-build-your-linux-system-from-scratch/)应该总是使用的是最新和最棒的稳定版(或者相当接近的版本)。如果你想要更接近最新发布的稳定版,你可以启用测试库提前2到3周获取到主要的更新。 要这么做,用[你喜欢的编辑器](http://www.makeuseof.com/tag/nano-vs-vim-terminal-text-editors-compared/)以`sudo`权限打开下面的文件 ``` /etc/pacman.conf ``` 接着取消注释带有 testing 的三行(删除行前面的#号)。如果你启用了 multilib 仓库,就把 multilib-testing 也做相同的事情。如果想要了解更多参考[这个 Arch 的 wiki 界面](https://wiki.archlinux.org/index.php/Pacman#Repositories)。 升级内核并不简单(有意这么做的),但是这会给你带来很多好处。只要你的新内核不会破坏任何东西,你可以享受它带来的性能提升,更好的效率,更多的硬件支持和潜在的新特性。尤其是你正在使用相对较新的硬件时,升级内核可以帮助到你。 **怎么升级内核这篇文章帮助到你了么?你认为你所喜欢的发行版对内核的发布策略应该是怎样的?**。在评论栏让我们知道! --- via: <http://www.makeuseof.com/tag/update-linux-kernel-improved-system-performance/> 作者:[Danny Stieben](http://www.makeuseof.com/tag/author/danny/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,030
Ubuntu 有望让你安装最新 Nvidia Linux 驱动更简单
http://www.omgubuntu.co.uk/2015/08/ubuntu-easy-install-latest-nvidia-linux-drivers
2015-08-15T09:22:00
[ "Ubuntu", "Nvidia", "驱动" ]
https://linux.cn/article-6030-1.html
![Ubuntu Gamers are on the rise -and so is demand for the latest drivers](/data/attachment/album/201508/15/012411r3qfer352fzcuffq.jpg) *Ubuntu 上的游戏玩家在增长——因而需要最新版驱动* **在 Ubuntu 上安装上游的 NVIDIA 图形驱动即将变得更加容易。** Ubuntu 开发者正在考虑构建一个全新的'官方' PPA,以便为桌面用户分发最新的闭源 NVIDIA 二进制驱动。 该项改变会让 Ubuntu 游戏玩家收益,并且*不会*给其它人造成 OS 稳定性方面的风险。 **仅**当用户明确选择它时,新的上游驱动将通过这个新 PPA 安装并更新。其他人将继续得到并使用更近的包含在 Ubuntu 归档中的稳定版 NVIDIA Linux 驱动快照。 ### 为什么需要该项目? ![Ubuntu provides drivers – but they’re not the latest](/data/attachment/album/201508/15/012412zpse3z4si3dy1b13.jpg) *Ubuntu 提供了驱动——但是它们不是最新的* 可以从归档中(使用命令行、synaptic,或者通过额外驱动工具)安装到 Ubuntu 上的闭源 NVIDIA 图形驱动在大多数情况下都能工作得很好,并且可以轻松地处理 Unity 桌面外壳的混染。 但对于游戏需求而言,那完全是另外一码事儿。 如果你想要将最高帧率和 HD 纹理从最新流行的 Steam 游戏中压榨出来,你需要最新的二进制驱动文件。 驱动越新,越可能支持最新的特性和技术,或者带有预先打包的游戏专门的优化和漏洞修复。 问题在于,在 Ubuntu 上安装最新 Nvidia Linux 驱动不是件容易的事儿,而且也不具安全保证。 要填补这个空白,许多由热心人维护的第三方 PPA 就出现了。由于许多这些 PPA 也发布了其它实验性的或者前沿软件,它们的使用**并不是毫无风险的**。添加一个前沿的 PPA 通常是搞崩整个系统的最快的方式! 一个解决方法是,让 Ubuntu 用户安装最新的专有图形驱动以满足对第三方 PPA 的需要,**但是**提供一个安全机制,如果有需要,你可以回滚到稳定版本。 ### ‘对全新驱动的需求难以忽视’ > > 一个让Ubuntu用户安全地获得最新硬件驱动的解决方案出现了。 > > > ‘在快速发展的市场中,对全新驱动的需求正变得难以忽视,用户将想要最新的上游软件,’卡斯特罗在一封给 Ubuntu 桌面邮件列表的电子邮件中解释道。 ‘[NVIDIA] 可以毫不费力为 [Windows 10] 用户带来了不起的体验。直到我们可以说服 NVIDIA 在 Ubuntu 中做了同样的工作,这样我们就可以搞定这一切了。’ 卡斯特罗的“官方的” NVIDIA PPA 方案就是最实现这一目的的最容易的方式。 游戏玩家将可以在 Ubuntu 的默认专有软件驱动工具中选择接收来自该 PPA 的新驱动,再也不需要它们从网站或维基页面拷贝并粘贴终端命令了。 该 PPA 内的驱动将由一个选定的社区成员组成的团队打包并维护,并受惠于一个名为**自动化测试**的半官方方式。 就像卡斯特罗自己说的那样:'人们想要最新的闪光的东西,而不管他们想要做什么。我们也许也要在其周围放置一个框架,因此人们可以获得他们所想要的,而不必破坏他们的计算机。' **你想要使用这个 PPA 吗?你怎样来评估 Ubuntu 上默认 Nvidia 驱动的性能呢?在评论中分享你的想法吧,伙计们!** --- via: <http://www.omgubuntu.co.uk/2015/08/ubuntu-easy-install-latest-nvidia-linux-drivers> 作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,031
如何在 Linux 上从 Google Play 商店里下载 apk 文件
http://xmodulo.com/download-apk-files-google-play-store.html
2015-08-15T13:35:00
[ "Android", "APK" ]
https://linux.cn/article-6031-1.html
假设你想在你的 Android 设备中安装一个 Android 应用,然而由于某些原因,你不能在 Andord 设备上访问 Google Play 商店(LCTT 译注:显然这对于我们来说是常态)。接着你该怎么做呢?在不访问 Google Play 商店的前提下安装应用的一种可能的方法是,使用其他的手段下载该应用的 APK 文件,然后手动地在 Android 设备上 [安装 APK 文件](http://xmodulo.com/how-to-install-apk-file-on-android-phone-or-tablet.html)。 ![](/data/attachment/album/201508/15/014005npeyylu0ml790tdy.jpg) 在非 Android 设备如常规的电脑和笔记本电脑上,有着几种方式来从 Google Play 商店下载到官方的 APK 文件。例如,使用浏览器插件(例如,针对 [Chrome](https://chrome.google.com/webstore/detail/apk-downloader/cgihflhdpokeobcfimliamffejfnmfii) 或针对 [Firefox](https://addons.mozilla.org/en-us/firefox/addon/apk-downloader/) 的插件) 或利用允许你使用浏览器下载 APK 文件的在线的 APK 存档等。假如你不信任这些闭源的插件或第三方的 APK 仓库,这里有另一种手动下载官方 APK 文件的方法,它使用一个名为 [GooglePlayDownloader](http://codingteam.net/project/googleplaydownloader) 的开源 Linux 应用。 GooglePlayDownloader 是一个基于 Python 的 GUI 应用,它可以让你从 Google Play 商店上搜索和下载 APK 文件。由于它是完全开源的,你可以放心地使用它。在本篇教程中,我将展示如何在 Linux 环境下,使用 GooglePlayDownloader 来从 Google Play 商店下载 APK 文件。 ### Python 需求 GooglePlayDownloader 需要使用带有 SNI(Server Name Indication 服务器名称指示)的 Python 来支持 SSL/TLS 通信,该功能由 Python 2.7.9 或更高版本引入。这使得一些旧的发行版本如 Debian 7 Wheezy 及早期版本,Ubuntu 14.04 及早期版本或 CentOS/RHEL 7 及早期版本均不能满足该要求。这里假设你已经有了一个带有 Python 2.7.9 或更高版本的发行版本,可以像下面这样接着安装 GooglePlayDownloader。 ### 在 Ubuntu 上安装 GooglePlayDownloader 在 Ubuntu 上,你可以使用官方构建的 deb 包。有一个条件是你可能需要手动地安装一个必需的依赖。 #### 在 Ubuntu 14.10 上 下载 [python-ndg-httpsclient](http://packages.ubuntu.com/vivid/python-ndg-httpsclient) deb 软件包,这是一个较旧的 Ubuntu 发行版本中缺失的依赖。同时还要下载 GooglePlayDownloader 的官方 deb 软件包。 ``` $ wget http://mirrors.kernel.org/ubuntu/pool/main/n/ndg-httpsclient/python-ndg-httpsclient_0.3.2-1ubuntu4_all.deb $ wget http://codingteam.net/project/googleplaydownloader/download/file/googleplaydownloader_1.7-1_all.deb ``` 如下所示,我们将使用 [gdebi 命令](http://xmodulo.com/how-to-install-deb-file-with-dependencies.html) 来安装这两个 deb 文件。 gedbi 命令将自动地处理任何其他的依赖。 ``` $ sudo apt-get install gdebi-core $ sudo gdebi python-ndg-httpsclient_0.3.2-1ubuntu4_all.deb $ sudo gdebi googleplaydownloader_1.7-1_all.deb ``` #### 在 Ubuntu 15.04 或更新的版本上 最近的 Ubuntu 发行版本上已经配备了所有需要的依赖,所以安装过程可以如下面那样直接进行。 ``` $ wget http://codingteam.net/project/googleplaydownloader/download/file/googleplaydownloader_1.7-1_all.deb $ sudo apt-get install gdebi-core $ sudo gdebi googleplaydownloader_1.7-1_all.deb ``` ### 在 Debian 上安装 GooglePlayDownloader 由于其 Python 需求, Googleplaydownloader 不能被安装到 Debian 7 Wheezy 或早期版本上,除非你升级了它自备的 Python 版本。 #### 在 Debian 8 Jessie 及更高版本上: ``` $ wget http://codingteam.net/project/googleplaydownloader/download/file/googleplaydownloader_1.7-1_all.deb $ sudo apt-get install gdebi-core $ sudo gdebi googleplaydownloader_1.7-1_all.deb ``` ### 在 Fedora 上安装 GooglePlayDownloader 由于 GooglePlayDownloader 原本是针对基于 Debian 的发行版本所开发的,假如你想在 Fedora 上使用它,你需要从它的源码开始安装。 首先安装必需的依赖。 ``` $ sudo yum install python-pyasn1 wxPython python-ndg_httpsclient protobuf-python python-requests ``` 然后像下面这样安装它。 ``` $ wget http://codingteam.net/project/googleplaydownloader/download/file/googleplaydownloader_1.7.orig.tar.gz $ tar -xvf googleplaydownloader_1.7.orig.tar.gz $ cd googleplaydownloader-1.7 $ chmod o+r -R . $ sudo python setup.py install $ sudo sh -c "echo 'python /usr/lib/python2.7/site-packages/googleplaydownloader-1.7-py2.7.egg/googleplaydownloader/googleplaydownloader.py' > /usr/bin/googleplaydownloader" ``` ### 使用 GooglePlayDownloader 从 Google Play 商店下载 APK 文件 一旦你安装好 GooglePlayDownloader 后,你就可以像下面那样从 Google Play 商店下载 APK 文件。(LCTT 译注:显然你需要让你的 Linux 能爬梯子) 首先通过输入下面的命令来启动该应用: ``` $ googleplaydownloader ``` ![](/data/attachment/album/201508/15/014008fu10gr1w1do000oo.jpg) 在搜索栏中,输入你想从 Google Play 商店下载的应用的名称。 ![](/data/attachment/album/201508/15/014009d6kv362371hhhz3b.jpg) 一旦你从搜索列表中找到了该应用,就选择该应用,接着点击 “下载选定的 APK 文件” 按钮。最后你将在你的家目录中找到下载的 APK 文件。现在,你就可以将下载到的 APK 文件转移到你所选择的 Android 设备上,然后手动安装它。 希望这篇教程对你有所帮助。 --- via: <http://xmodulo.com/download-apk-files-google-play-store.html> 作者:[Dan Nanni](http://xmodulo.com/author/nanni) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,033
在 Linux 中安装 Darkstat:基于网页的流量分析器
http://linuxpitstop.com/install-darkstat-on-ubuntu-linux/
2015-08-16T10:04:00
[ "Darkstat", "监控" ]
https://linux.cn/article-6033-1.html
Darkstat是一个简易的,基于网页的流量分析程序。它可以在主流的操作系统如Linux、Solaris、MAC、AIX上工作。它以守护进程的形式持续工作在后台,不断地嗅探网络数据,以简单易懂的形式展现在它的网页上。它可以为主机生成流量报告,识别特定的主机上哪些端口是打开的,它兼容IPv6。让我们看下如何在Linux中安装和配置它。 ![](/data/attachment/album/201508/15/180718tzwd0cdvsca90wlt.png) ### 在Linux中安装配置Darkstat **在Fedora/CentOS/RHEL中安装Darkstat:** 要在Fedora/RHEL和CentOS中安装,运行下面的命令。 ``` sudo yum install darkstat ``` **在Ubuntu/Debian中安装Darkstat:** 运行下面的命令在Ubuntu和Debian中安装。 ``` sudo apt-get install darkstat ``` 恭喜你,Darkstat已经在你的Linux中安装了。 ### 配置 Darkstat 为了正确运行这个程序,我们需要执行一些基本的配置。运行下面的命令用gedit编辑器打开/etc/darkstat/init.cfg文件。 ``` sudo gedit /etc/darkstat/init.cfg ``` ![](/data/attachment/album/201508/15/180720jgg7oave1m1aemod.png) *编辑 Darkstat* 修改START\_DARKSTAT这个参数为yes,并在“INTERFACE”中提供你的网络接口。确保取消了DIR、PORT、BINDIP和LOCAL这些参数的注释。如果你希望绑定Darkstat到特定的IP,在BINDIP参数中提供它。 ### 启动Darkstat守护进程 安装并配置完Darkstat后,运行下面的命令启动它的守护进程。 ``` sudo /etc/init.d/darkstat start ``` ![Restarting Darkstat](/data/attachment/album/201508/15/180720tku3jk1n17kh066o.png) 你可以用下面的命令来在开机时启动Darkstat: ``` chkconfig darkstat on ``` 打开浏览器并打开**http://localhost:666**,它会显示Darkstat的网页界面。使用这个工具来分析你的网络流量。 ![Darkstat](/data/attachment/album/201508/15/180721c26w9yykzg27oyhk.png) ### 总结 它是一个占用很少内存的轻量级工具。这个工具流行的原因是简易、易于配置使用。这是一个对系统管理员而言必须拥有的程序。 --- via: <http://linuxpitstop.com/install-darkstat-on-ubuntu-linux/> 作者:[Aun](http://linuxpitstop.com/author/aun/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
404
Not Found
null
6,034
一周 GNOME 之旅:品味它和 KDE 的是是非非(第一节 介绍)
http://www.phoronix.com/scan.php?page=article&item=gnome-week-editorial&num=1
2015-08-17T09:00:00
[ "KDE", "桌面", "Gnome" ]
https://linux.cn/article-6034-1.html
*作者声明: 如果你是因为某种神迹而在没看标题的情况下点开了这篇文章,那么我想再重申一些东西……这是一篇评论文章,文中的观点都是我自己的,不代表 Phoronix 网站和 Michael 的观点。它们完全是我自己的想法。* 另外,没错……这可能是一篇引战的文章。我希望 KDE 和 Gnome 社团变得更好一些,因为我想发起一个讨论并反馈给他们。为此,当我想指出(我所看到的)一个瑕疵时,我会尽量地做到具体而直接。这样,相关的讨论也能做到同样的具体和直接。再次声明:本文另一可选标题为“死于成千上万的[纸割](https://wiki.ubuntu.com/One%20Hundred%20Papercuts)”(LCTT 译注:paper cuts——纸割,被纸片割伤——指易修复但烦人的缺陷。Ubuntu 从 9.10 开始,发起了 [One Hundred Papercuts](https://wiki.ubuntu.com/One%20Hundred%20Papercuts) 项目,用于修复那些小而烦人的易用性问题)。 现在,重申完毕……文章开始。 ![](/data/attachment/album/201508/17/061110s4tgjg8bjbzymg58.jpeg) 当我把[《评价 Fedora 22 KDE 》](http://www.phoronix.com/scan.php?page=article&item=fedora-22-kde&num=1)一文发给 Michael 时,感觉很不是滋味。不是因为我不喜欢 KDE,或者不待见 Fedora,远非如此。事实上,我刚开始想把我的 T450s 的系统换为 Arch Linux 时,马上又决定放弃了,因为我很享受 fedora 在很多方面所带来的便捷性。 我感觉很不是滋味的原因是 Fedora 的开发者花费了大量的时间和精力在他们的“工作站”产品上,但是我却一点也没看到。在使用 Fedora 时,我并没用采用那些主要开发者希望用户采用的那种使用方式,因此我也就体验不到所谓的“ Fedora 体验”。它感觉就像一个人评价 Ubuntu 时用的却是 Kubuntu,评价 OS X 时用的却是 Hackintosh,或者评价 Gentoo 时用的却是 Sabayon。根据论坛里大量读者对 Michael 的说法,他们在评价各种发行版时都是使用的默认设置——我也不例外。但是我还是认为这些评价应该在“真实”配置下完成,当然我也知道在给定的情况下评论某些东西也的确是有价值的——无论是好是坏。 正是在怀着这种态度的情况下,我决定跳到 Gnome 这个水坑里来泡泡澡。 但是,我还要在此多加一个声明……我在这里所看到的 KDE 和 Gnome 都是打包在 Fedora 中的。OpenSUSE、 Kubuntu、 Arch等发行版的各个桌面可能有不同的实现方法,使得我这里所说的具体的“痛点”跟你所用的发行版有所不同。还有,虽然用了这个标题,但这篇文章将会是一篇“很 KDE”的重量级文章。之所以这样称呼,是因为我在“使用” Gnome 之后,才知道 KDE 的“纸割”到底有多么的多。 ### 登录界面 ![Gnome GDM](/data/attachment/album/201508/17/061126o0364cjnq00wic3w.jpeg) 我一般情况下都不会介意发行版带着它们自己的特别主题,因为一般情况下桌面看起来会更好看。可我今天可算是找到了一个例外。 第一印象很重要,对吧?那么,GDM(LCTT 译注: Gnome Display Manage:Gnome 显示管理器。)绝对干得漂亮。它的登录界面看起来极度简洁,每一部分都应用了一致的设计风格。使用通用图标而不是文本框为它的简洁加了分。 ![KDE SDDM](/data/attachment/album/201508/17/061158g1t1zupn11117oaf.jpeg) 这并不是说 Fedora 22 KDE ——现在已经是 SDDM 而不是 KDM 了——的登录界面不好看,但是看起来绝对没有它这样和谐。 问题到底出来在哪?顶部栏。看看 Gnome 的截图——你选择一个用户,然后用一个很小的齿轮简单地选择想登入哪个会话。设计很简洁,一点都不碍事,实话讲,如果你没注意的话可能完全会看不到它。现在看看那蓝色( LCTT 译注:blue,有忧郁之意,一语双关)的 KDE 截图,顶部栏看起来甚至不像是用同一个工具渲染出来的,它的整个位置的安排好像是某人想着:“哎哟妈呀,我们需要把这个选项扔在哪个地方……”之后决定下来的。 对于右上角的重启和关机选项也一样。为什么不单单用一个电源按钮,点击后会下拉出一个菜单,里面包括重启,关机,挂起的功能?按钮的颜色跟背景色不同肯定会让它更加突兀和显眼……但我可不觉得这样子有多好。同样,这看起来可真像“苦思”后的决定。 从实用观点来看,GDM 还要远远实用的多,再看看顶部一栏。时间被列了出来,还有一个音量控制按钮,如果你想保持周围安静,你甚至可以在登录前设置静音,还有一个可用性按钮来实现高对比度、缩放、语音转文字等功能,所有可用的功能通过简单的一个开关按钮就能得到。 ![KDE Breeve 主题](/data/attachment/album/201508/17/061236tp1puggkk1h5h6jt.jpeg) 切换到上游(KDE 自带)的 Breeve 主题……突然间,我抱怨的大部分问题都被解决了。通用图标,所有东西都放在了屏幕中央,但不是那么重要的被放到了一边。因为屏幕顶部和底部都是同样的空白,在中间也就酝酿出了一种美好的和谐。还是有一个文本框来切换会话,但既然电源按钮被做成了通用图标,那么这点还算可以原谅。当前时间以一种漂亮的感觉呈现,旁边还有电量指示器。当然 gnome 还是有一些很好的附加物,例如音量小程序和可用性按钮,但 Breeze 总归要比 Fedora 的 KDE 主题进步。 到 Windows(Windows 8和10之前)或者 OS X 中去,你会看到类似的东西——非常简洁的,“不碍事”的锁屏与登录界面,它们都没有文本框或者其它分散视觉的小工具。这是一种有效的不分散人注意力的设计。Fedora……默认带有 Breeze 主题。VDG 在 Breeze 主题设计上干得不错。可别糟蹋了它。 --- via: <http://www.phoronix.com/scan.php?page=article&item=gnome-week-editorial&num=1> 作者:Eric Griffith 译者:[XLCYun](https://github.com/XLCYun) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,035
一周 GNOME 之旅:品味它和 KDE 的是是非非(第二节 GNOME桌面)
http://www.phoronix.com/scan.php?page=article&item=gnome-week-editorial&num=2
2015-08-18T09:00:00
[ "Gnome", "KDE", "桌面" ]
https://linux.cn/article-6035-1.html
### 桌面 ![](/data/attachment/album/201508/16/003707rcgthlng1nn60k0j.jpeg) 在我这一周的前五天中,我都是直接手动登录进 Gnome 的——没有打开自动登录功能。在第五天的晚上,每一次都要手动登录让我觉得很厌烦,所以我就到用户管理器中打开了自动登录功能。下一次我登录的时候收到了一个提示:“你的密钥链(keychain)未解锁,请输入你的密码解锁”。在这时我才意识到了什么……Gnome 以前一直都在自动解锁我的密钥链(KDE 中叫做我的钱包),每当我通过 GDM 登录时 !当我绕开 GDM 的登录程序时,Gnome 才不得不介入让我手动解锁。 现在,鄙人的陋见是如果你打开了自动登录功能,那么你的密钥链也应当自动解锁——否则,这功能还有何用?无论如何,你还是需要输入你的密码,况且在 GDM 登录界面你还有机会选择要登录的会话,如果你想换的话。 但是,这点且不提,也就是在那一刻,我意识到要让这桌面感觉就像它在**和我**一起工作一样是多么简单的一件事。当我通过 SDDM 登录 KDE 时?甚至连启动界面都还没加载完成,就有一个窗口弹出来遮挡了启动动画(因此启动动画也就被破坏了),它提示我解锁我的 KDE 钱包或 GPG 钥匙环。 如果当前还没有钱包,你就会收到一个创建钱包的提醒——就不能在创建用户的时候同时为我创建一个吗?接着它又让你在两种加密模式中选择一种,甚至还暗示我们其中一种(Blowfish)是不安全的,既然是为了安全,为什么还要我选择一个不安全的东西?作者声明:如果你安装了真正的 KDE spin 版本而不是仅仅安装了被 KDE 搞过的版本,那么在创建用户时,它就会为你创建一个钱包。但很不幸的是,它不会帮你自动解锁,并且它似乎还使用了更老的 Blowfish 加密模式,而不是更新而且更安全的 GPG 模式。 ![](/data/attachment/album/201508/16/003718lkfrtri55strkrwd.jpeg) 如果你选择了那个安全的加密模式(GPG),那么它会尝试加载 GPG 密钥……我希望你已经创建过一个了,因为如果你没有,那么你可又要被指责一番了。怎么样才能创建一个?额……它不帮你创建一个……也不告诉你怎么创建……假如你真的搞明白了你应该使用 KGpg 来创建一个密钥,接着在你就会遇到一层层的菜单和一个个的提示,而这些菜单和提示只能让新手感到困惑。为什么你要问我 GPG 的二进制文件在哪?天知道在哪!如果不止一个,你就不能为我选择一个最新的吗?如果只有一个,我再问一次,为什么你还要问我? 为什么你要问我要使用多大的密钥大小和加密算法?你既然默认选择了 2048 和 RSA/RSA,为什么不直接使用?如果你想让这些选项能够被修改,那就把它们扔在下面的“Expert mode(专家模式)” 按钮里去。这里不仅仅是说让配置可被用户修改的问题,而是说根本不需要默认把多余的东西扔在了用户面前。这种问题将会成为这篇文章剩下的主要内容之一……KDE 需要更理智的默认配置。配置是好的,我很喜欢在使用 KDE 时的配置,但它还需要知道什么时候应该,什么时候不应该去提示用户。而且它还需要知道“嗯,它是可配置的”不能做为默认配置做得不好的借口。用户最先接触到的就是默认配置,不好的默认配置注定要失去用户。 让我们抛开密钥链的问题,因为我想我已经表达出了我的想法。 --- via: <http://www.phoronix.com/scan.php?page=article&item=gnome-week-editorial&num=2> 作者:Eric Griffith 译者:[XLCYun](https://github.com/XLCYun) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,038
Ubuntu NVIDIA 显卡驱动 PPA 已经做好准备
http://www.omgubuntu.co.uk/2015/08/ubuntu-nvidia-graphics-drivers-ppa-is-ready-for-action
2015-08-17T07:30:00
[ "Nvidia", "驱动" ]
https://linux.cn/article-6038-1.html
![](/data/attachment/album/201508/16/105605vo1ubrxxz4vqo741.png) 加速你的帧率! **嘿,各位,稍安勿躁,很快就好。** 就在提议开发一个[新的 PPA](/article-6030-1.html) 来给 Ubuntu 用户们提供最新的 NVIDIA 显卡驱动后不久,ubuntu 社区的人们又集结起来了,就是为了这件事。 顾名思义,‘**Graphics Drivers PPA**’ 包含了最新的 NVIDIA Linux 显卡驱动发布,已经打包好可供用户升级使用,没有让人头疼的二进制运行时文件! 这个 PPA 被设计用来让玩家们尽可能方便地在 Ubuntu 上运行最新款的游戏。 #### 万事俱备,只欠东风 Jorge Castro 开发一个包含 NVIDIA 最新显卡驱动的 PPA 神器的想法得到了 Ubuntu 用户和广大游戏开发者的热烈响应。 就连那些致力于将“Steam平台”上的知名大作移植到 Linux 上的人们,也给了不少建议。 Edwin Smith,Feral Interactive 公司(‘Shadow of Mordor’) 的产品总监,对于“让用户更方便地更新驱动”的倡议表示非常欣慰。 ### 如何使用最新的 Nvidia Drivers PPA 虽然新的“显卡PPA”已经开发出来,但是现在还远远达不到成熟。开发者们提醒到: > > “这个 PPA 还处于测试阶段,在你使用它之前最好有一些打包的经验。请大家稍安勿躁,再等几天。” > > > 将 PPA 试发布给 Ubuntu desktop 邮件列表的 Jorge,也强调说,使用现行的一些 PPA(比如 xorg-edgers)的玩家可能发现不了什么区别(因为现在的驱动只不过是把内容从其他那些现存驱动拷贝过来了) “新驱动发布的时候,好戏才会上演呢,”他说。 截至写作本文时为止,这个 PPA 囊括了从 Ubuntu 12.04.1 到 15.10 各个版本的 Nvidia 驱动。注意这些驱动对所有的发行版都适用。 > > **毫无疑问,除非你清楚自己在干些什么,并且知道如果出了问题应该怎么撤销,否则就不要进行下面的操作。** > > > 新打开一个终端窗口,运行下面的命令加入 PPA: ``` sudo add-apt-repository ppa:graphics-drivers/ppa ``` 安装或更新到最新的 Nvidia 显卡驱动: ``` sudo apt-get update && sudo apt-get install nvidia-355 ``` 记住:如果PPA把你的系统弄崩了,你可得自己去想办法,我们提醒过了哦。(译者注:切记!) 如果想要撤销对PPA的改变,使用 `ppa-purge` 命令。 有什么意见,想法,或者指正,就在下面的评论栏里写下来吧。(我没有 NVIDIA 的硬件来为我自己验证上面的这些东西,如果你可以验证的话,那就太感谢了。) --- via: <http://www.omgubuntu.co.uk/2015/08/ubuntu-nvidia-graphics-drivers-ppa-is-ready-for-action> 作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[DongShuaike](https://github.com/DongShuaike) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,040
Linux有问必答:如何修复“ImportError: No module named wxversion”错误
http://ask.xmodulo.com/importerror-no-module-named-wxversion.html
2015-08-16T18:48:55
[ "wxPython" ]
/article-6040-1.html
> > **问题** 我试着在[某某 Linux 发行版]上运行一个 Python 应用,但是我得到了这个错误“ImportError: No module named wxversion.”。我怎样才能解决 Python 程序中的这个错误呢? > > > ``` Looking for python... 2.7.9 - Traceback (most recent call last): File "/home/dev/playonlinux/python/check_python.py", line 1, in import os, wxversion ImportError: No module named wxversion failed tests ``` 该错误表明,你的Python应用是基于GUI的,依赖于一个名为wxPython的缺失模块。[wxPython](http://wxpython.org/)是一个用于wxWidgets GUI库的Python扩展模块,普遍被C++程序员用来设计GUI应用。该wxPython扩展允许Python开发者在任何Python应用中方便地设计和整合GUI。 ![](/data/attachment/album/201508/16/184857decib29d9hhc7ion.jpg) 摇解决这个 import 错误,你需要在你的 Linux 上安装 wxPython,如下: ### 安装wxPython到Debian,Ubuntu或Linux Mint ``` $ sudo apt-get install python-wxgtk2.8 ``` ### 安装wxPython到Fedora ``` $ sudo yum install wxPython ``` ### 安装wxPython到CentOS/RHEL wxPython可以在CentOS/RHEL的EPEL仓库中获取到,而基本仓库中则没有。因此,首先要在你的系统中[启用EPEL仓库](/article-2324-1.html),然后使用yum命令来安装。 ``` $ sudo yum install wxPython ``` ### 安装wxPython到Arch Linux ``` $ sudo pacman -S wxpython ``` ### 安装wxPython到Gentoo ``` $ emerge wxPython ``` --- via: <http://ask.xmodulo.com/importerror-no-module-named-wxversion.html> 作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /importerror-no-module-named-wxversion.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c55d0>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)"))
null
6,041
一些 Linux 桌面小技巧
http://www.tecmint.com/creating-cdrom-iso-image-watch-user-activity-in-linux/
2015-08-16T19:07:24
[ "技巧", "浏览器" ]
https://linux.cn/article-6041-1.html
我已经写过 [Linux 提示和技巧](http://www.tecmint.com/tag/linux-tricks/) 系列的一篇文章。写这篇文章的目的是让你知道这些小技巧可以有效地管理你的系统/服务器。 ![Create Cdrom ISO Image and Monitor Users in Linux](/data/attachment/album/201508/16/190727fw9kv9kr6hvux1h9.jpg) *在Linux中创建 Cdrom ISO 镜像和监控用户* 在这篇文章中,我们将看到如何使用 CD/DVD 驱动器中载入的碟片来创建 ISO 镜像;打开随机手册页学习;看到登录用户的详细情况和查看浏览器内存使用量,而所有这些完全使用本地工具/命令,无需任何第三方应用程序/组件。让我们开始吧…… ### 用 CD 碟片创建 ISO 映像 我们经常需要备份/复制 CD/DVD 的内容。如果你是在 Linux 平台上,不需要任何额外的软件。所有需要的是进入 Linux 终端。 要从 CD/DVD 上创建 ISO 镜像,你需要做两件事。第一件事就是需要找到CD/DVD 驱动器的名称。要找到 CD/DVD 驱动器的名称,可以使用以下三种方法。 **1. 从终端/控制台上运行 lsblk 命令(列出块设备)** ``` $ lsblk ``` ![Find Block Devices in Linux](/data/attachment/album/201508/16/190728ybm888r4ppmqp7uu.png) *找块设备* 从上图可以看到,sr0 就是你的 cdrom (即 /dev/sr0 )。 **2. 要查看有关 CD-ROM 的信息,可以使用以下命令** ``` $ less /proc/sys/dev/cdrom/info ``` ![Check Cdrom Information](/data/attachment/album/201508/16/190729vs8va75c55pj0557.png) *检查 Cdrom 信息* 从上图可以看到, 设备名称是 sr0 (即 /dev/sr0)。 **3. 使用 [dmesg 命令](http://www.tecmint.com/dmesg-commands/) 也会得到相同的信息,并使用 egrep 来自定义输出。** 命令 ‘dmesg‘ 命令的输出/控制内核缓冲区信息。‘egrep‘ 命令输出匹配到的行。egrep 使用选项 -i 和 -color 时会忽略大小写,并高亮显示匹配的字符串。 ``` $ dmesg | egrep -i --color 'cdrom|dvd|cd/rw|writer' ``` ![Find Device Information](/data/attachment/album/201508/16/190730okaejllel2peljaq.png) *查找设备信息* 从上图可以看到,设备名称是 sr0 (即 /dev/sr0)。 一旦知道 CD/DVD 的名称后,在 Linux 上你可以用下面的命令来创建 ISO 镜像(你看,只需要 cat 即可!)。 ``` $ cat /dev/sr0 > /path/to/output/folder/iso_name.iso ``` 这里的‘sr0‘是我的 CD/DVD 驱动器的名称。你应该用你的 CD/DVD 名称来代替。这将帮你创建 ISO 镜像并备份 CD/DVD 的内容无需任何第三方应用程序。 ![Create ISO Image of CDROM in Linux](/data/attachment/album/201508/16/190730vxhx57ucxnujy755.png) *创建 CDROM 的 ISO 映像* ### 随机打开一个手册页 如果你是 Linux 新人并想学习使用命令行开关,这个技巧就是给你的。把下面的代码行添加在`〜/ .bashrc`文件的末尾。 ``` /use/bin/man $(ls /bin | shuf | head -1) ``` 记得把上面一行脚本添加在用户的`.bashrc`文件中,而不是根目录的 .bashrc 文件。所以,当你下次登录本地或远程使用 SSH 时,你会看到一个随机打开的手册页供你阅读。对于想要学习命令行开关的新手,这被证明是有益的。 下面是在终端登录两次分别看到的。 ![LoadKeys Man Pages](/data/attachment/album/201508/16/190731u11e2eqeaqyebqkm.png) *LoadKeys 手册页* ![Zgrep Man Pages](/data/attachment/album/201508/16/190731tau9msnd28zaans5.png) *Zgrep 手册页* 希望你知道如何退出手册页浏览——如果你已经厌烦了每次都看到手册页,你可以删除你添加到 `.bashrc`文件中的那几行。 ### 查看登录用户的状态 了解其他用户正在共享服务器上做什么。 一般情况下,你是共享的 Linux 服务器的用户或管理员的。如果你担心自己服务器的安全并想要查看哪些用户在做什么,你可以使用命令 `w`。 这个命令可以让你知道是否有人在执行恶意代码或篡改服务器,让他停下或使用其他方法。'w' 是查看登录用户状态的首选方式。 要查看登录的用户正在做什么,从终端运行命令“w”,最好是 root 用户。 ``` # w ``` ![Check Linux User Activity](/data/attachment/album/201508/16/190732m435il5bp15j6n15.png) *检查 Linux 用户状态* ### 查看浏览器的内存使用状况 最近有不少谈论关于 Google-chrome 的内存使用量。如要检查浏览器的内存使用情况,只需在地址栏输入 “about:memory”,不要带引号。 我已经在 Google-Chrome 和 Mozilla 的 Firefox 网页浏览器进行了测试。你可以查看任何浏览器,如果它工作得很好,你可能会承认我们在下面的评论。你也可以杀死浏览器进程在 Linux 终端的进程/服务中。 在 Google Chrome 中,在地址栏输入 `about:memory`,你应该得到类似下图的东西。 ![Check Chrome Memory Usage](/data/attachment/album/201508/16/190733x33vhd1dirda7j2s.png) *查看 Chrome 内存使用状况* 在Mozilla Firefox浏览器,在地址栏输入 `about:memory`,你应该得到类似下图的东西。 ![Check Firefox Memory Usage](/data/attachment/album/201508/16/190734cjxcxxllx9nb9xse.png) *查看 Firefox 内存使用状况* 如果你已经了解它是什么,除了这些选项。要检查内存用量,你也可以点击最左边的 ‘Measure‘ 选项。 ![Firefox Main Process](/data/attachment/album/201508/16/190736xds9s4qz5sys7dbr.png) *Firefox 主进程* 它将通过浏览器树形展示进程内存使用量。 目前为止就这样了。希望上述所有的提示将会帮助你。如果你有一个(或多个)技巧,分享给我们,将帮助 Linux 用户更有效地管理他们的 Linux 系统/服务器。 我会很快在这里发帖,到时候敬请关注。请在下面的评论里提供你的宝贵意见。喜欢请分享并帮助我们传播。 --- via: <http://www.tecmint.com/creating-cdrom-iso-image-watch-user-activity-in-linux/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[strugglingyouth](https://github.com/strugglingyouth) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,042
新手指南:在 Ubuntu 和 Fedora 上安装软件包
http://locez.com/Linux/install-program-on-ubuntu-fedora/
2016-02-05T08:15:00
[ "安装软件", "编译" ]
https://linux.cn/article-6042-1.html
新进入 Linux 世界的朋友们,也许你已经[下载好了 Linux 的安装 ISO](/article-4130-1.html),并且[安装好了你的 Linux](/article-5893-1.html) ,那么接下来,你也许希望安装一些 Linux 上用的软件。开始你可能会使用图形界面的软件中心来安装,有时候也需要使用命令行来安装,或者甚至需要自己去编译一个二进制出来——这是多么神奇的一件事啊。 那么我们今天就讲一讲如何在 Linux 上安装软件包。 本文将从 **GUI 软件中心**、**包管理器**、**在线仓库安装**,**本地安装**,**源码安装** 一一为你讲解有关安装软件包需要注意的事项。 ![](/data/attachment/album/201508/16/222746e5vh38d7ey3leyps.jpg) ### 本文环境 * Ubuntu 15.04 64-bit * Fedora 22 64-bit ### 安装目标 * wget 它是一个用于从网络上下载文件的简单自由软件,在下文我们也会用到 wget 进行下载某些文件。 ### 相关概念 * **源** :我们安装程序可以从 **远程仓库** 或 **本地仓库** 获取,这个 **仓库** 就是我们程序的来源,因此可以称为 **源** 。 * **包管理器** :顾名思义 **包管理器** 是用来管理软件包的,用这个工具我们可以轻松的从仓库中安装、卸载程序。不同的发行版有不同的包管理器,Ubuntu 使用 `apt-get` 而 Fedora 22使用 `dnf`。 * **源码** : 程序的原始代码,未经过编译,通过编译源码也可以生成程序。 ### 图形界面的软件中心 #### Ubuntu 软件中心 当我们处于图形界面( GUI :Graphical User Interface) 时,Ubuntu 为我们提供了一个图形界面的安装工具,称为 **Ubuntu 软件中心**,通过这个软件中心,我们可以像 Windows 一样通过点击几个按钮,轻松实现软件包安装。下图为打开软件中心之后的图,左边是一些分类,下面则是一些推荐的软件包。 ![Ubunutu 软件中心](/data/attachment/album/201508/16/222807duvefmvtekrvmzae.png) 点击已安装可以查看安装在本机的软件包,并且可以在此管理它们,如图选中 Firefox 并点击卸载,此时会提示你输入密码,输入完成且正确就会卸载你所选的程序。 ![已安装](/data/attachment/album/201508/16/222808pglctdclc3gd3f5t.png) 接下来在搜索框搜索 `wget` 你可以看到如图所示的东西,并且只需点击安装并正确输入密码即可。 ![安装新程序](/data/attachment/album/201508/16/222808pglctdclc3gd3f5t.png) #### Fedora 软件中心 点开如图所示的图标就可以打开 Fedora 的软件中心。 ![Fedora 软件中心](/data/attachment/album/201508/16/222808i3dn7zuy4c27zvc4.png) 打开后界面如图,分类在最下面 ![软件中心](/data/attachment/album/201508/16/222809pxyzebmzsmhwheei.png) 点开上图的扫雷,显示如下,点击 **安装** ,静候即可 ![安装新程序](/data/attachment/album/201508/16/222809ke0uhd9e3zqw7h39.png) 现在转到 **已安装** ,我们可以看到刚刚安装的扫雷,点击 **移除** ,就可以删除了。 ![移除程序](/data/attachment/album/201508/16/222809e9plrmmzu1p1pukr.png) 如果你遇到下图,只需要输入你的密码即可。 ![认证](/data/attachment/album/201508/16/222810mc3rd4sasqabmqcz.png) ### 使用包管理器安装 #### 1.换源 | 发行版 | 换源方法 | | --- | --- | | Ubuntu | [阿里云镜像配置请参考这里](http://mirrors.aliyun.com/help/ubuntu) | | [USTC镜像配置请参考这里](https://lug.ustc.edu.cn/wiki/mirrors/help/ubuntu) | | Fedora | [阿里云镜像配置请参考这里](http://mirrors.aliyun.com/help/fedora) | | [USTC镜像配置请参考这里](https://lug.ustc.edu.cn/wiki/mirrors/help/fedora) | 换源是为了提升下载速度,上文的概念已经提到了,我们安装软件是从远程仓库下载安装的,自然这个远程仓库的网络连通必须要好,并且下载速度要可观。 #### 2.更新源 更换了源的文件后,还需要更新本地数据库信息,以便与远程仓库信息一致。 | 发行版 | 包管理工具 | 参数 | 示例 | 解释 | | --- | --- | --- | --- | --- | | Ubuntu | apt-get | update | sudo apt-get update | 取回更新的软件包列表信息 | | Fedora | dnf | check-update | sudo dnf check-update | 取回更新的软件包列表信息 | #### 3.安装软件包 | 发行版 | 包管理工具 | 类型 | 参数 | 示例 | 解释 | | --- | --- | --- | --- | --- | --- | | Ubuntu | apt-get | 远程仓库 | install | sudo apt-get install packagename | 安装软件包 | | Fedora | dnf | 远程仓库 | install | sudo dnf install packagename | 安装软件包 | | Ubuntu | dpkg | 本地deb包 | -i | sudo dpkg -i filename.deb | 安装本地二进制deb包 | | Fedora | rpm | 本地rpm包 | -i | sudo rpm -i filename.rpm | 安装本地二进制rpm包 | #### 4.卸载软件包 | 发行版 | 包管理工具 | 参数 | 示例 | 解释 | | --- | --- | --- | --- | --- | | Ubuntu | apt-get | remove | sudo apt-get remove packagename | 卸载软件包 | | Fedora | dnf | remove | sudo dnf remove packagename | 卸载软件包 | | Ubuntu | dpkg | -r | sudo dpkg -r packagename | 卸载软件包 | #### 5.升级所有软件包 | 发行版 | 包管理工具 | 参数 | 示例 | 解释 | | --- | --- | --- | --- | --- | | Ubuntu | apt-get | upgrade | sudo apt-get upgrade | 升级所有软件包 | | Fedora | dnf | upgrade | sudo dnf upgrade | 升级所有软件包 | #### 6.其它参数 | 发行版 | 包管理工具 | 参数 | 示例 | 解释 | | --- | --- | --- | --- | --- | | Ubuntu | apt-get | purge | sudo apt-get purge packagename | 卸载并清除软件包的配置 | | source | apt-get source packagename | 下载源码包文件 | | clean | sudo apt-get clean | 删除所有已下载的包文件 | | download | apt-get download packagename | 下载指定的二进制包到当前目录 | | --help | apt-get --help | 获取帮助 | | Fedora | dnf | clean | sudo dnf clean | 清除旧缓存 | | makecache | sudo dnf makecache | 生成新缓存 | | -h | dnf -h | 获取帮助 | ### 从源码编译安装 有些时候我们会发现有的软件包并没有包含在软件仓库中,也没有可用的二进制包,这时候我们可以尝试从源码编译安装,我在此处仍以`wget` 为例,示范如何编译,并解决编译遇到的问题 以下环境为 **Ubuntu 15.04** ``` $ mkdir buildwget #构建目录 $ cd buildwget $ wget http://ftp.gnu.org/gnu/wget/wget-1.16.tar.xz #下载源码包 $ sudo apt-get remove wget #为了后面的测试,先把 wget 卸载了 $ xz -d wget-1.16.tar.xz #解压 xz 文件 $ tar -xvf wget-1.16.tar #解档 tar 文件 $ cd wget-1.16 $ ls #列出文件 ABOUT-NLS ChangeLog.README GNUmakefile maint.mk po util aclocal.m4 configure INSTALL Makefile.am README AUTHORS configure.ac lib Makefile.in src build-aux COPYING m4 msdos testenv ChangeLog doc MAILING-LIST NEWS tests ``` 上面的文件就是我们将要编译的源文件,其中有个特别要注意的就是 `INSTALL`,我们要养成一个习惯,多看 `INSTALL` 文件,这个文件会告诉我们怎么编译,编译时需要注意什么?但由于此处的编译较简单,所以 `INSTALL` 也没有提到什么特别重要的事情。 按照 `INSTALL` 我们先执行 `./configure` ``` $ ./configure ``` 如果出现如下的错误 ``` configure: error: --with-ssl=gnutls was given, but GNUTLS is not available. ``` 错误提示说,给定的 `SSL` 是 `gnutls` 但是却不可用(因为没有安装),因此我们安装并指定 `openssl` 为 `wget` 的 `SSL` 。 ``` $ sudo apt-get install openssl $ sudo apt-get install libssl-dev $ ./configure --with-ssl=openssl ``` 如果没有问题,执行完后应该显示如下 ``` configure: Summary of build options: Version: 1.16 Host OS: linux-gnu Install prefix: /usr/local Compiler: gcc CFlags: -g -O2 LDFlags: Libs: -lssl -lcrypto -ldl -lz SSL: openssl Zlib: yes PSL: no Digest: yes NTLM: yes OPIE: yes Debugging: yes ``` 然后进行编译 ``` $ make ``` 会输出很多编译信息,不要担心,如果最后没有报错而停止,则编译成功,接下来进行安装 ``` $ sudo make install ``` 试试是不是 `wget` 命令又出来了?源码安装遇到问题,我们要善于搜索,提问和解决,根据报错内容进行相应的编译调整,缺少的依赖装上,一般就可以成功。 ### 总结 本文主要为新手讲解了 **Ubuntu** 和 **Fedora** 安装软件包的一些方法, 相较之前的版本,本次更改由繁化简,并且以表格的形式给出参数和命令,要熟练和体会这些命令到底是干嘛的,还必须亲自敲一敲,去理解这个命令的作用。从源码编译安装,则展示了一个遇到问题,解决问题的过程,由于编译 `wget` 较简单,此处也未遇到特别难处理的问题,但这清晰的展示了一个编译安装的过程,遇到错误,我们不要害怕,而要认真阅读给出的错误信息,借此搜索,提问,寻求解答。另外 Linux 下遇到问题首先要自己善于去搜索,提问,解决问题得到答案并归纳总结,不然是很难学到知识的。
301
Moved Permanently
null
6,043
一周 GNOME 之旅:品味它和 KDE 的是是非非(第三节 GNOME应用)
http://www.phoronix.com/scan.php?page=article&item=gnome-week-editorial&num=3
2015-08-19T08:17:00
[ "KDE", "桌面", "Gnome" ]
https://linux.cn/article-6043-1.html
### 应用 ![KDE 的 Dragon 播放器](/data/attachment/album/201508/17/003228s3jmqllqqrgs0q11.jpeg) 这是一个基本扯平的方面。每一个桌面环境都有一些非常好的应用,也有一些不怎么样的。再次强调,Gnome 把那些 KDE 完全错失的小细节给做对了。我不是想说 KDE 中有哪些应用不好。他们都能工作,但仅此而已。也就是说:它们合格了,但确实还没有达到甚至接近100分。 Gnome 在左边,KDE 在右边。KDE 的 Dragon 播放器运行得很好,清晰的标出了播放文件、URL或和光盘的按钮,正如你在 Gnome Videos 中能做到的一样……但是在便利的文件名和用户的友好度方面,Gnome 多走了一小步。它默认显示了在你的电脑上检测到的所有影像文件,不需要你做任何事情。KDE 有 [Baloo][](正如之前的 [Nepomuk](http://www.ikde.org/tech/kde-tech-nepomuk/),LCTT 译注:这是 KDE 中一种文件索引服务框架)为什么不使用它们?它们能列出可读取的影像文件……但却没被使用。 下一步……音乐播放器 ![Gnome 的 Rhythmbox 播放器](/data/attachment/album/201508/17/003506te4avvkx309zhs4f.jpeg) ![KDE 的 Amarok 播放器](/data/attachment/album/201508/17/003534pfzlwly2pyka9awm.jpeg) 这两个应用,左边的是 Rhythmbox ,右边的是 Amarok,都是打开后没有做任何修改直接截屏的。看到差别了吗?Rhythmbox 看起来像个音乐播放器,直接了当,排序文件的方法也很清晰,它知道它应该是什么样的,它的工作是什么:就是播放音乐。 Amarok 感觉就像是某个人为了展示而把所有的扩展和选项都尽可能地塞进一个应用程序中去,而做出来的一个技术演示产品(tech demos),或者一个库演示产品(library demos)——而这些是不应该做为产品装进去的,它只应该展示其中一点东西。而 Amarok 给人的感觉却是这样的:好像是某个人想把每一个感觉可能很酷的东西都塞进一个媒体播放器里,甚至都不停下来想“我想写啥来着?一个播放音乐的应用?” 看看默认布局就行了。前面和中心都呈现了什么?一个可视化工具和集成了维基百科——占了整个页面最大和最显眼的区域。第二大的呢?播放列表。第三大,同时也是最小的呢?真正的音乐列表。这种默认设置对于一个核心应用来说,怎么可能称得上理智? 软件管理器!它在最近几年当中有很大的进步,而且接下来的几个月中,很可能只能看到它更大的进步。不幸的是,这是另一个 KDE 做得差一点点就能……但还是在终点线前以脸戗地了。 ![Gnome 软件中心](/data/attachment/album/201508/17/003724s75yrbubtufyyuzt.jpeg) ![KDE apper](/data/attachment/album/201508/17/003739p470isz6dm1xq4hr.jpeg) ![KDE Muon](/data/attachment/album/201508/17/003748nyzhat9btmm9i0ac.jpeg) Gnome 软件中心可能是我的新的最爱的软件中心,先放下牢骚等下再发。Muon, 我想爱上你,真的。但你就是个设计上的梦魇。当 VDG 给你画设计草稿时(草图如下),你看起来真漂亮。白色空间用得很好,设计简洁,类别列表也很好,你的整个“不要分开做成两个应用程序”的设计都很不错。 ![KDE Muon 草图](/data/attachment/album/201508/17/003804wr3wglwgfflgrurl.jpeg) 接着就有人为你写代码,实现真正的UI,但是,我猜这些家伙当时一定是喝醉了。 我们来看看 Gnome 软件中心。正中间是什么?软件,软件截图和软件描述等等。Muon 的正中心是什么?白白浪费的大块白色空间。Gnome 软件中心还有一个贴心便利特点,那就是放了一个“运行”的按钮在那儿,以防你已经安装了这个软件。便利性和易用性很重要啊,大哥。说实话,仅仅让 Muon 把东西都居中对齐了可能看起来的效果都要好得多。 Gnome 软件中心沿着顶部的东西是什么,像个标签列表?所有软件,已安装软件,软件升级。语言简洁,直接,直指要点。Muon,好吧,我们有个“发现”,这个语言表达上还算差强人意,然后我们又有一个“已安装软件”,然后,就没有然后了。软件升级哪去了? 好吧……开发者决定把升级独立分开成一个应用程序,这样你就得打开两个应用程序才能管理你的软件——一个用来安装,一个用来升级——自从有了新立得图形软件包管理器以来,首次有这种破天荒的设计,与任何已存的软件中心的设计范例相违背。 我不想贴上截图给你们看,因为我不想等下还得清理我的电脑,如果你进入 Muon 安装了什么,那么它就会在屏幕下方根据安装的应用名创建一个标签,所以如果你一次性安装很多软件的话,那么下面的标签数量就会慢慢的增长,然后你就不得不手动检查清除它们,因为如果你不这样做,当标签增长到超过屏幕显示时,你就不得不一个个找过去来才能找到最近正在安装的软件。想想:在火狐浏览器中打开50个标签是什么感受。太烦人,太不方便! 我说过我会给 Gnome 一点打击,我是认真的。Muon 有一点做得比 Gnome 软件中心做得好。在 Muon 的设置栏下面有个“显示技术包”,即:编辑器,软件库,非图形应用程序,无 AppData 的应用等等(LCTT 译注:AppData 是软件包中的一个特殊文件,用于专门存储软件的信息)。Gnome 则没有。如果你想安装其中任何一项你必须跑到终端操作。我想这是他们做得不对的一点。我完全理解他们推行 AppData 的心情,但我想他们太急了(LCTT 译注:推行所有软件包带有 AppData 是 Gnome 软件中心的目标之一)。我是在想安装 PowerTop,而 Gnome 不显示这个软件时我才发现这点的——因为它没有 AppData,也没有“显示技术包”设置。 更不幸的事实是,如果你在 KDE 下你不能说“用 [Apper](https://en.wikipedia.org/wiki/Apper) 就行了”,因为…… ![](/data/attachment/album/201508/17/003859sp1qw1r311iyzd34.jpeg) Apper 对安装本地软件包的支持大约在 Fedora 19 时就中止了,几乎两年了。我喜欢关注细节与质量。 --- via: <http://www.phoronix.com/scan.php?page=article&item=gnome-week-editorial&num=3> 作者:Eric Griffith 译者:[XLCYun](https://github.com/XLCYun) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,046
shellinabox:一款使用 AJAX 的基于 Web 的终端模拟器
http://www.unixmen.com/shellinabox-a-web-based-ajax-terminal-emulator/
2015-08-18T08:39:00
[ "shellinabox", "终端" ]
https://linux.cn/article-6046-1.html
### shellinabox简介 通常情况下,我们在访问任何远程服务器时,会使用常见的通信工具如OpenSSH和Putty等。但是,有可能我们在防火墙后面不能使用这些工具访问远程系统,或者防火墙只允许HTTPS流量才能通过。不用担心!即使你在这样的防火墙后面,我们依然有办法来访问你的远程系统。而且,你不需要安装任何类似于OpenSSH或Putty的通讯工具。你只需要有一个支持JavaScript和CSS的现代浏览器,并且你不用安装任何插件或第三方应用软件。 这个 **Shell In A Box**,发音是**shellinabox**,是由**Markus Gutschke**开发的一款自由开源的基于Web的Ajax的终端模拟器。它使用AJAX技术,通过Web浏览器提供了类似原生的 Shell 的外观和感受。 ![](/data/attachment/album/201508/17/224410zqq45qqtu1r9z3qn.jpg) 这个**shellinaboxd**守护进程实现了一个Web服务器,能够侦听指定的端口。其Web服务器可以发布一个或多个服务,这些服务显示在用 AJAX Web 应用实现的VT100模拟器中。默认情况下,端口为4200。你可以更改默认端口到任意选择的任意端口号。在你的远程服务器安装shellinabox以后,如果你想从本地系统接入,打开Web浏览器并导航到:**http://IP-Address:4200/**。输入你的用户名和密码,然后就可以开始使用你远程系统的Shell。看起来很有趣,不是吗?确实 有趣! **免责声明**: shellinabox不是SSH客户端或任何安全软件。它仅仅是一个应用程序,能够通过Web浏览器模拟一个远程系统的Shell。同时,它和SSH没有任何关系。这不是可靠的安全地远程控制您的系统的方式。这只是迄今为止最简单的方法之一。无论如何,你都不应该在任何公共网络上运行它。 ### 安装shellinabox #### 在Debian / Ubuntu系统上: shellinabox在默认库是可用的。所以,你可以使用命令来安装它: ``` $ sudo apt-get install shellinabox ``` #### 在RHEL / CentOS系统上: 首先,使用命令安装EPEL仓库: ``` # yum install epel-release ``` 然后,使用命令安装shellinabox: ``` # yum install shellinabox ``` 完成! ### 配置shellinabox 正如我之前提到的,shellinabox侦听端口默认为**4200**。你可以将此端口更改为任意数字,以防别人猜到。 在Debian/Ubuntu系统上shellinabox配置文件的默认位置是**/etc/default/shellinabox**。在RHEL/CentOS/Fedora上,默认位置在**/etc/sysconfig/shellinaboxd**。 如果要更改默认端口, 在Debian / Ubuntu: ``` $ sudo vi /etc/default/shellinabox ``` 在RHEL / CentOS / Fedora: ``` # vi /etc/sysconfig/shellinaboxd ``` 更改你的端口到任意数字。因为我在本地网络上测试它,所以我使用默认值。 ``` # Shell in a box daemon configuration # For details see shellinaboxd man page # Basic options USER=shellinabox GROUP=shellinabox CERTDIR=/var/lib/shellinabox PORT=4200 OPTS="--disable-ssl-menu -s /:LOGIN" # Additional examples with custom options: # Fancy configuration with right-click menu choice for black-on-white: # OPTS="--user-css Normal:+black-on-white.css,Reverse:-white-on-black.css --disable-ssl-menu -s /:LOGIN" # Simple configuration for running it as an SSH console with SSL disabled: # OPTS="-t -s /:SSH:host.example.com" ``` 重启shelinabox服务。 **在Debian/Ubuntu:** ``` $ sudo systemctl restart shellinabox ``` 或者 ``` $ sudo service shellinabox restart ``` 在RHEL/CentOS系统,运行下面的命令能在每次重启时自动启动shellinaboxd服务 ``` # systemctl enable shellinaboxd ``` 或者 ``` # chkconfig shellinaboxd on ``` 如果你正在运行一个防火墙,记得要打开端口**4200**或任何你指定的端口。 例如,在RHEL/CentOS系统,你可以如下图所示允许端口。 ``` # firewall-cmd --permanent --add-port=4200/tcp # firewall-cmd --reload ``` ### 使用 现在,在你的客户端系统,打开Web浏览器并导航到:**https://ip-address-of-remote-servers:4200**。 **注意**:如果你改变了端口,请填写修改后的端口。 你会得到一个证书问题的警告信息。接受该证书并继续。 ![Privacy error - Google Chrome_001](/data/attachment/album/201508/17/224413tpqg8mue8sv74sv7.jpg) 输入远程系统的用户名和密码。现在,您就能够从浏览器本身访问远程系统的外壳。 ![Shell In A Box - Google Chrome_003](/data/attachment/album/201508/17/224413xh3q3minm7o3qr00.jpg) 右键点击你浏览器的空白位置。你可以得到一些有很有用的额外菜单选项。 ![Shell In A Box - Google Chrome_004](/data/attachment/album/201508/17/224414ewcpwb9q93jsks55.jpg) 从现在开始,你可以通过本地系统的Web浏览器在你的远程服务器随意操作。 当你完成工作时,记得输入`exit`退出。 当再次连接到远程系统时,单击**连接**按钮,然后输入远程服务器的用户名和密码。 ![Shell In A Box - Google Chrome_005](/data/attachment/album/201508/17/224415rg9vuzdfgdedvyy9.jpg) 如果想了解shellinabox更多细节,在你的终端键入下面的命令: ``` # man shellinabox ``` 或者 ``` # shellinaboxd -help ``` 同时,参考[shellinabox 在wiki页面的介绍](https://code.google.com/p/shellinabox/wiki/shellinaboxd_man),来了解shellinabox的综合使用细节。 ### 结论 正如我之前提到的,如果你在服务器运行在防火墙后面,那么基于web的SSH工具是非常有用的。有许多基于web的SSH工具,但shellinabox是非常简单而有用的工具,可以从的网络上的任何地方,模拟一个远程系统的Shell。因为它是基于浏览器的,所以你可以从任何设备访问您的远程服务器,只要你有一个支持JavaScript和CSS的浏览器。 就这些啦。祝你今天有个好心情! #### 参考链接: * [shellinabox website](https://code.google.com/p/shellinabox/) --- via: <http://www.unixmen.com/shellinabox-a-web-based-ajax-terminal-emulator/> 作者:[SK](http://www.unixmen.com/author/sk/) 译者:[xiaoyu33](https://github.com/xiaoyu33) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,048
一周 GNOME 之旅:品味它和 KDE 的是是非非(第四节 GNOME设置)
http://www.phoronix.com/scan.php?page=article&item=gnome-week-editorial&num=4
2015-08-20T09:00:00
[ "Gnome", "KDE", "桌面" ]
https://linux.cn/article-6048-1.html
### 设置 在这我要挑一挑几个特定 KDE 控制模块的毛病,大部分原因是因为相比它们的对手GNOME来说,糟糕得太可笑,实话说,真是悲哀。 第一个接招的?打印机。 ![Gnome 和 KDE 的打印机设置](/data/attachment/album/201508/17/234930csnbgeqnngaaqpg8.jpeg) GNOME 在左,KDE 在右。你知道左边跟右边的打印程序有什么区别吗?当我在 GNOME 控制中心打开“打印机”时,程序窗口弹出来了,然后这样就可以使用了。而当我在 KDE 系统设置打开“打印机”时,我得到了一条密码提示。甚至我都没能看一眼打印机呢,我就必须先交出 ROOT 密码。 让我再重复一遍。在今天这个有了 PolicyKit 和 Logind 的日子里,对一个应该是 sudo 的操作,我依然被询问要求 ROOT 的密码。我安装系统的时候甚至都没设置 root 密码。所以我必须跑到 Konsole 去,接着运行 'sudo passwd root' 命令,这样我才能给 root 设一个密码,然后我才能回到系统设置中的打印程序,再交出 root 密码,然后仅仅是看一看哪些打印机可用。完成了这些工作后,当我点击“添加打印机”时,我再次得到请求 ROOT 密码的提示,当我解决了它后再选择一个打印机和驱动时,我再次得到请求 ROOT 密码的提示。仅仅是为了添加一个打印机到系统我就收到三次密码请求! 而在 GNOME 下添加打印机,在点击打印机程序中的“解锁”之前,我没有得到任何请求 SUDO 密码的提示。整个过程我只被请求过一次,仅此而已。KDE,求你了……采用 GNOME 的“解锁”模式吧。不到一定需要的时候不要发出提示。还有,不管是哪个库,只要它允许 KDE 应用程序绕过 PolicyKit/Logind(如果有的话)并直接请求 ROOT 权限……那就把它封进箱里吧。如果这是个多用户系统,那我要么必须交出 ROOT 密码,要么我必须时时刻刻待命,以免有一个用户需要升级、更改或添加一个新的打印机。而这两种情况都是完全无法接受的。 有还一件事…… ![Gnome 和 KDE 的添加打印机](/data/attachment/album/201508/17/235042ys1x4ipwqa9qa285.jpeg) ![Gnome 和 KDE 添加第二个打印机](/data/attachment/album/201508/17/235109izpbfffrerpb49pr.jpeg) 这个问题问大家:怎么样看起来更简洁?我在写这篇文章时意识到:当有任何附加的打印机准备好时,Gnome 打印机程序会把过程做得非常简洁,它们在左边上放了一个竖直栏来列出这些打印机。而我在 KDE 中添加第二台打印机时,它突然增加出一个左边栏来。而在添加之前,我脑海中已经有了一个恐怖的画面,它会像图片文件夹显示预览图一样直接在界面里插入另外一个图标。我很高兴也很惊讶的看到我是错的。但是事实是它直接“长出”另外一个从未存在的竖直栏,彻底改变了它的界面布局,而这样也称不上“好”。终究还是一种令人困惑,奇怪而又不直观的设计。 打印机说得够多了……下一个接受我公开石刑的 KDE 系统设置是?多媒体,即 Phonon。 ![Gnome 和 KDE 的音量控制](/data/attachment/album/201508/17/235134u7vq9v0oo9ycebyw.jpeg) 一如既往,GNOME 在左边,KDE 在右边。让我们先看看 GNOME 的系统设置先……眼睛移动是从左到右,从上到下,对吧?来吧,就这样做。首先:音量控制滑条。滑条中的蓝色条与空条百分百清晰地消除了哪边是“音量增加”的困惑。在音量控制条后马上就是一个 On/Off 开关,用来开关静音功能。Gnome 的再次得分在于静音后能记住当前设置的音量,而在点击音量增加按钮取消静音后能回到原来设置的音量中来。Kmixer,你个健忘的垃圾,我真的希望我能多讨论你一下。 继续!输入输出和应用程序的标签选项?每一个应用程序的音量随时可控?Gnome,每过一秒,我爱你越深。音量均衡选项、声音配置、和清晰地标上标志的“测试麦克风”选项。 我不清楚它能否以一种更干净更简洁的设计实现。是的,它只是一个 Gnome 化的 Pavucontrol,但我想这就是重要的地方。Pavucontrol 在这方面几乎完全做对了,Gnome 控制中心中的“声音”应用程序的改善使它向完美更进了一步。 Phonon,该你上了。但开始前我想说:我 TM 看到的是什么?!我知道我看到的是音频设备的优先级列表,但是它呈现的方式有点太坑。还有,那些用户可能关心的那些东西哪去了?拥有一个优先级列表当然很好,它也应该存在,但问题是优先级列表属于那种用户乱搞一两次之后就不会再碰的东西。它还不够重要,或者说不够常用到可以直接放在正中间位置的程度。音量控制滑块呢?对每个应用程序的音量控制功能呢?那些用户使用最频繁的东西呢?好吧,它们在 Kmix 中,一个分离的程序,拥有它自己的配置选项……而不是在系统设置下……这样真的让“系统设置”这个词变得有点用词不当。 ![Gnome 的网络设置](/data/attachment/album/201508/17/235153ad605772u2ldllle.jpeg) 上面展示的 Gnome 的网络设置。KDE 的没有展示,原因就是我接下来要吐槽的内容了。如果你进入 KDE 的系统设置里,然后点击“网络”区域中三个选项中的任何一个,你会得到一大堆的选项:蓝牙设置、Samba 分享的默认用户名和密码(说真的,“连通性(Connectivity)”下面只有两个选项:SMB 的用户名和密码。TMD 怎么就配得上“连通性”这么大的词?),浏览器身份验证控制(只有 Konqueror 能用……一个已经倒闭的项目),代理设置,等等……我的 wifi 设置哪去了?它们没在这。哪去了?好吧,它们在网络应用程序的设置里面……而不是在网络设置里…… KDE,你这是要杀了我啊,你有“系统设置”当凶器,拿着它动手吧! --- via: <http://www.phoronix.com/scan.php?page=article&item=gnome-week-editorial&num=4> 作者:Eric Griffith 译者:[XLCYun](https://github.com/XLCYun) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,060
一周 GNOME 之旅:品味它和 KDE 的是是非非(第五节 总结)
http://www.phoronix.com/scan.php?page=article&item=gnome-week-editorial&num=5
2015-08-21T09:00:00
[ "KDE", "桌面", "Gnome" ]
https://linux.cn/article-6060-1.html
### 用户体验和最后想法 ![](/data/attachment/album/201508/19/212846iyqgmqeiiqpopwby.png) 当 Gnome 2.x 和 KDE 4.x 要正面交锋时……我在它们之间左右逢源。我对它们爱恨交织,但总的来说它们使用起来还算是一种乐趣。然后 Gnome 3.x 来了,带着一场 Gnome Shell 的戏剧。那时我就放弃了 Gnome,我尽我所能的避开它。当时它对用户是不友好的,而且不直观,它打破了原有的设计典范,只为平板的统治世界做准备……而根据平板下跌的销量来看,这样的未来不可能实现。 在 Gnome 3 后续发布了八个版本后,奇迹发生了。Gnome 变得对对用户友好了,变得直观了。它完美吗?当然不。我还是很讨厌它想推动的那种设计范例,我讨厌它总想给我强加一种工作流(work flow),但是在付出时间和耐心后,这两都能被接受。只要你能够回头去看看 Gnome Shell 那外星人一样的界面,然后开始跟 Gnome 的其它部分(特别是控制中心)互动,你就能发现 Gnome 绝对做对了:细节,对细节的关注! 人们能适应新的界面设计范例,能适应新的工作流—— iPhone 和 iPad 都证明了这一点——但真正让他们操心的一直是“纸割”——那些不完美的细节。 它带出了 KDE 和 Gnome 之间最重要的一个区别。Gnome 感觉像一个产品,像一种非凡的体验。你用它的时候,觉得它是完整的,你要的东西都触手可及。它让人感觉就像是一个拥有 Windows 或者 OS X 那样桌面体验的 Linux 桌面版:你要的都在里面,而且它是被同一个目标一致的团队中的同一个人写出来的。天,即使是一个应用程序发出的 sudo 请求都感觉是 Gnome 下的一个特意设计的部分,就像在 Windows 下的一样。而在 KDE 下感觉就是随便一个应用程序都能创建的那种各种外观的弹窗。它不像是以系统本身这样的正式身份停下来说“嘿,有个东西要请求管理员权限!你要给它吗?”。 KDE 让人体验不到有凝聚力的体验。KDE 像是在没有方向地打转,感觉没有完整的体验。它就像是一堆东西往不同的的方向移动,只不过恰好它们都有一个共同享有的工具包而已。如果开发者对此很开心,那么好吧,他们开心就好,但是如果他们想提供最好体验的话,那么就需要多关注那些小地方了。用户体验跟直观应当做为每一个应用程序的设计中心,应当有一个视野,知道 KDE 要提供什么——并且——知道它看起来应该是什么样的。 是不是有什么原因阻止我在 KDE 下使用 Gnome 磁盘管理? Rhythmbox 呢? Evolution 呢? 没有,没有,没有。但是这样说又错过了关键。Gnome 和 KDE 都称它们自己为“桌面环境”。那么它们就应该是完整的环境,这意味着他们的各个部件应该汇集并紧密结合在一起,意味着你应该使用它们环境下的工具,因为它们说“您在一个完整的桌面中需要的任何东西,我们都支持。”说真的?只有 Gnome 看起来能符合完整的要求。KDE 在“汇集在一起”这一方面感觉就像个半成品,更不用说提供“完整体验”中你所需要的东西。Gnome 磁盘管理没有相应的对手—— kpartionmanage 要求 ROOT 权限。KDE 不运行“首次用户注册”的过程(原文:No 'First Time User' run through。可能是指系统安装过程中KDE没有创建新用户的过程,译注) ,现在也不过是在 Kubuntu 下引入了一个用户管理器。老天,Gnome 甚至提供了地图、笔记、日历和时钟应用。这些应用都是百分百要紧的吗?不,当然不了。但是正是这些应用帮助 Gnome 推动“Gnome 是一种完整丰富的体验”的想法。 我吐槽的 KDE 问题并非不可能解决,决对不是这样的!但是它需要人去关心它。它需要开发者为他们的作品感到自豪,而不仅仅是为它们实现的功能而感到自豪——组织的价值可大了去了。别夺走用户设置选项的能力—— GNOME 3.x 就是因为缺乏配置选项的能力而为我所诟病,但别把“好吧,你想怎么设置就怎么设置”作为借口而不提供任何理智的默认设置。默认设置是用户将看到的东西,它们是用户从打开软件的第一刻开始进行评判的关键。给用户留个好印象吧。 我知道 KDE 开发者们知道设计很重要,这也是为什么VDG(Visual Design Group 视觉设计组)存在的原因,但是感觉好像他们没有让 VDG 充分发挥,所以 KDE 里存在组织上的缺陷。不是 KDE 没办法完整,不是它没办法汇集整合在一起然后解决衰败问题,只是开发者们没做到。他们瞄准了靶心……但是偏了。 还有,在任何人说这句话之前……千万别说“欢迎给我们提交补丁啊"。因为当我开心的为某个人提交补丁时,只要开发者坚持以他们喜欢的却不直观的方式干事,更多这样的烦人事就会不断发生。这不关 Muon 有没有中心对齐。也不关 Amarok 的界面太丑。也不关每次我敲下快捷键后,弹出的音量和亮度调节窗口占用了我一大块的屏幕“地皮”(说真的,有人会把这些东西缩小)。 这跟心态的冷漠有关,跟开发者们在为他们的应用设计 UI 时根本就不多加思考有关。KDE 团队做的东西都工作得很好。Amarok 能播放音乐。Dragon 能播放视频。Kwin 或 Qt 和 kdelibs 似乎比 Mutter/gtk 更有力更效率(仅根据我的电池电量消耗计算。非科学性测试)。这些都很好,很重要……但是它们呈现的方式也很重要。甚至可以说,呈现方式是最重要的,因为它是用户看到的并与之交互的东西。 KDE 应用开发者们……让 VDG 参与进来吧。让 VDG 审查并核准每一个“核心”应用,让一个 VDG 的 UI/UX 专家来设计应用的使用模式和使用流程,以此保证其直观性。真见鬼,不管你们在开发的是啥应用,仅仅把它的模型发到 VDG 论坛寻求反馈甚至都可能都能得到一些非常好的指点跟反馈。你有这么好的资源在这,现在赶紧用吧。 我不想说得好像我一点都不懂感恩。我爱 KDE,我爱那些志愿者们为了给 Linux 用户一个可视化的桌面而付出的工作与努力,也爱可供选择的 Gnome。正是因为我关心我才写这篇文章。因为我想看到更好的 KDE,我想看到它走得比以前更加遥远。而这样做需要每个人继续努力,并且需要人们不再躲避批评。它需要人们对系统互动及系统崩溃的地方都保持诚实。如果我们不能直言批评,如果我们不说“这真垃圾!”,那么情况永远不会变好。 这周后我会继续使用 Gnome 吗?可能不。应该不。Gnome 还在试着强迫我接受其工作流,而我不想追随,也不想遵循,因为我在使用它的时候感觉变得不够高效,因为它并不遵循我的思维模式。可是对于我的朋友们,当他们问我“我该用哪种桌面环境?”我可能会推荐 Gnome,特别是那些不大懂技术,只要求“能工作”就行的朋友。根据目前 KDE 的形势来看,这可能是我能说出的最狠毒的评估了。 --- via: <http://www.phoronix.com/scan.php?page=article&item=gnome-week-editorial&num=5> 作者:Eric Griffith 译者:[XLCYun](https://github.com/XLCYun) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,077
Ubuntu Linux 来到 IBM 大型机
http://www.zdnet.com/article/ubuntu-linux-is-coming-to-the-mainframe/
2015-08-24T07:07:00
[ "IBM", "Ubuntu", "LinuxONE" ]
https://linux.cn/article-6077-1.html
最终来到了。在 [LinuxCon](http://events.linuxfoundation.org/events/linuxcon-north-america) 上,IBM 和 [Canonical](http://www.canonical.com/) 宣布 [Ubuntu Linux](http://www.ubuntu.comj/) 不久就会运行在 IBM 大型机 [LinuxONE](http://events.linuxfoundation.org/events/linuxcon-north-america) 上,这是一种只支持 Linux 的大型机,现在也可以运行 Ubuntu 了。 这个 IBM 发布的最大的 LinuxONE 系统称作‘Emperor’,它可以扩展到 8000 台虚拟机或者上万台容器,这可能是单独一台 Linux 系统的记录。 LinuxONE 被 IBM 称作‘游戏改变者’,它‘释放了 Linux 的商业潜力’。 ![](/data/attachment/album/201508/23/220828vzmwm3cc6y064b68.jpg) *很快你就可以在你的 IBM 大型机上安装 Ubuntu Linux orange 啦* 根据 IBM z 系统的总经理 Ross Mauri 以及 Canonical 和 Ubuntu 的创立者 Mark Shuttleworth 所言,这是因为客户需要。十多年来,IBM 大型机只支持 [红帽企业版 Linux (RHEL)](http://www.redhat.com/en/technologies/linux-platforms/enterprise-linux) 和 [SUSE Linux 企业版 (SLES)](https://www.suse.com/products/server/) Linux 发行版。 随着 Ubuntu 越来越成熟,更多的企业把它作为企业级 Linux,也有更多的人希望它能运行在 IBM 大型机上。尤其是银行希望如此。不久,金融 CIO 们就可以满足他们的需求啦。 在一次采访中 Shuttleworth 说 Ubuntu Linux 在 2016 年 4 月下一次长期支持版 Ubuntu 16.04 中就可以用到大型机上。而在 2014 年底 Canonical 和 IBM 将 [Ubuntu 带到 IBM 的 POWER](http://www.zdnet.com/article/ibm-doubles-down-on-linux/) 架构中就迈出了第一步。 在那之前,Canonical 和 IBM 差点签署了协议 [在 2011 年实现 Ubuntu 支持 IBM 大型机](http://www.zdnet.com/article/mainframe-ubuntu-linux/),但最终也没有实现。这次,真的发生了。 Canonical 的 CEO Jane Silber 解释说 “[把 Ubuntu 平台支持扩大](https://insights.ubuntu.com/2015/08/17/ibm-and-canonical-plan-ubuntu-support-on-ibm-z-systems-mainframe/)到 [IBM z 系统](http://www-03.ibm.com/systems/uk/z/) 是因为认识到需要 z 系统运行其业务的客户数量以及混合云市场的成熟。” **Silber 还说:** > > 由于 z 系统的支持,包括 [LinuxONE](http://www.zdnet.com/article/linuxone-ibms-new-linux-mainframes/),Canonical 和 IBM 的关系进一步加深,构建了对 POWER 架构的支持和 OpenPOWER 生态系统。正如 Power 系统的客户受益于 Ubuntu 的可扩展能力,我们的敏捷开发过程也使得类似 POWER8 CAPI (Coherent Accelerator Processor Interface,一致性加速器接口)得到了市场支持,z 系统的客户也可以期望技术进步能快速部署,并从 [Juju](https://jujucharms.com/) 和我们的其它云工具中获益,使得能快速向端用户提供新服务。另外,我们和 IBM 的合作包括实现扩展部署很多 IBM 和 Juju 的软件解决方案。大型机客户对于能通过 Juju 将丰富‘迷人的’ IBM 解决方案、其它软件供应商的产品、开源解决方案部署到大型机上感到高兴。 > > > Shuttleworth 期望 z 系统上的 Ubuntu 能取得巨大成功。它发展很快,由于对 OpenStack 的支持,希望有卓越云性能的人会感到非常高兴。 --- via: <http://www.zdnet.com/article/ubuntu-linux-is-coming-to-the-mainframe/> via: <http://www.omgubuntu.co.uk/2015/08/ibm-linuxone-mainframe-ubuntu-partnership> 作者:[Steven J. Vaughan-Nichols](http://www.zdnet.com/meet-the-team/us/steven-j-vaughan-nichols/),[Joey-Elijah Sneddon](http://www.zdnet.com/meet-the-team/us/steven-j-vaughan-nichols/) 译者:[ictlyh](https://github.com/ictlyh),[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,078
Tickr:一个开源的 Linux 桌面 RSS 新闻速递应用
http://www.omgubuntu.co.uk/2015/06/tickr-open-source-desktop-rss-news-ticker
2015-08-24T08:00:00
[ "RSS", "Tickr" ]
https://linux.cn/article-6078-1.html
![](/data/attachment/album/201508/23/225106wepsurnnc4sbnniq.jpg) **最新的!最新的!阅读关于它的一切!** 好了,我们今天要推荐的应用程序可不是旧式报纸的二进制版本——它会以一种漂亮的方式将最新的新闻推送到你的桌面上。 Tickr 是一个基于 GTK 的 Linux 桌面新闻速递应用,能够以横条方式滚动显示最新头条新闻以及你最爱的RSS资讯文章标题,当然你可以放置在你桌面的任何地方。 请叫我 Joey Calamezzo;我把它放在底部,就像电视新闻台的滚动字幕一样。 (LCTT 译注: Joan Callamezzo 是 Pawnee Today 的主持人,一位 Pawnee 的本地新闻/脱口秀主持人。而本文作者是 Joey。) “到你了,副标题”。 ### RSS -还记得吗? “谢谢,这段结束了。” 在一个充斥着推送通知、社交媒体、标题党,以及哄骗人们点击的清单体的时代,RSS看起来有一点过时了。 对我来说呢?恩,RSS是名副其实的真正简单的聚合(RSS : Really Simple Syndication)。这是将消息通知给我的最简单、最易于管理的方式。我可以在我愿意的时候,管理和阅读一些东西;没必要匆忙的去看,以防这条微博消失在信息流中,或者推送通知消失。 tickr的美在于它的实用性。你可以不断地有新闻滚动在屏幕的底部,然后不时地瞥一眼。 ![](/data/attachment/album/201508/23/225107t0417mv44qxlvraz.jpg) 你不会有“阅读”或“标记所有为已读”的压力。当你看到一些你想读的东西,你只需点击它,将它在Web浏览器中打开。 ### 开始设置 ![](/data/attachment/album/201508/23/225113dmvlwpqpqvovpvtp.jpg) 尽管虽然tickr可以从Ubuntu软件中心安装,然而它已经很久没有更新了。当你打开笨拙的不直观的控制面板的时候,没有什么能够比这更让人感觉被遗弃的了。 要打开它: 1. 右键单击tickr条 2. 转至编辑>首选项 3. 调整各种设置 选项和设置行的后面,有些似乎是容易理解的。但是详细了解这些你才能够掌握一切,包括: * 设置滚动速度 * 选择鼠标经过时的行为 * 资讯更新频率 * 字体,包括字体大小和颜色 * 消息分隔符(“delineator”) * tickr在屏幕上的位置 * tickr条的颜色和不透明度 * 选择每种资讯显示多少文章 有个值得一提的“怪癖”是,当你点击“应用”按钮,只会更新tickr的屏幕预览。当您退出“首选项”窗口时,请单击“确定”。 想要得到完美的显示效果, 你需要一点点调整,特别是在 Unity 上。 按下“全宽按钮”,能够让应用程序自动检测你的屏幕宽度。默认情况下,当放置在顶部或底部时,会留下25像素的间距(应用程序以前是在GNOME2.x桌面上创建的)。只需添加额外的25像素到输入框,来弥补这个问题。 其他可供选择的选项包括:选择文章在哪个浏览器打开;tickr是否以一个常规的窗口出现;是否显示一个时钟;以及应用程序多久检查一次文章资讯。 #### 添加资讯 tickr自带的有超过30种不同的资讯列表,从技术博客到主流新闻服务。 ![](/data/attachment/album/201508/23/225115bmz3gqg3ngf3wcf8.jpg) 你可以选择很多你想在屏幕上显示的新闻提要。如果你想添加自己的资讯,你可以:— 1. 右键单击tickr条 2. 转至文件>打开资讯 3. 输入资讯网址 4. 点击“添加/更新”按钮 5. 单击“确定”(选择) 如果想设置每个资讯在ticker中显示多少条文章,可以去另一个首选项窗口修改“每个资讯最大读取N条文章” ### 在Ubuntu 14.04 LTS或更高版本上安装Tickr 这就是 Tickr,它不会改变世界,但是它能让你知道世界上发生了什么。 在Ubuntu 14.04 LTS或更高版本中安装,点击下面的按钮转到Ubuntu软件中心。 * [点击此处进入Ubuntu软件中心安装tickr](apt://tickr) --- via: <http://www.omgubuntu.co.uk/2015/06/tickr-open-source-desktop-rss-news-ticker> 作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[xiaoyu33](https://github.com/xiaoyu33) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,079
如何在 Linux 终端中知道你的公有 IP
http://www.blackmoreops.com/2015/06/14/how-to-get-public-ip-from-linux-terminal/
2015-08-24T10:10:00
[ "IP" ]
https://linux.cn/article-6079-1.html
![](/data/attachment/album/201508/23/231234m0cc94nn09efzo7d.png) 公有地址由 InterNIC 分配并由基于类的网络 ID 或基于 CIDR 的地址块构成(被称为 CIDR 块),并保证了在全球互联网中的唯一性。当公有地址被分配时,其路由将会被记录到互联网中的路由器中,这样访问公有地址的流量就能顺利到达。访问目标公有地址的流量可经由互联网抵达。比如,当一个 CIDR 块被以网络 ID 和子网掩码的形式分配给一个组织时,对应的 [网络 ID,子网掩码] 也会同时作为路由储存在互联网中的路由器中。目标是 CIDR 块中的地址的 IP 封包会被导向对应的位置。 在本文中我将会介绍在几种在 Linux 终端中查看你的公有 IP 地址的方法。这对普通用户来说并无意义,但 Linux 服务器(无GUI或者作为只能使用基本工具的用户登录时)会很有用。无论如何,从 Linux 终端中获取公有 IP 在各种方面都很意义,说不定某一天就能用得着。 以下是我们主要使用的两个命令,curl 和 wget。你可以换着用。 ### Curl 纯文本格式输出: ``` curl icanhazip.com curl ifconfig.me curl curlmyip.com curl ip.appspot.com curl ipinfo.io/ip curl ipecho.net/plain curl www.trackip.net/i ``` ### curl JSON格式输出: ``` curl ipinfo.io/json curl ifconfig.me/all.json curl www.trackip.net/ip?json (有点丑陋) ``` ### curl XML格式输出: ``` curl ifconfig.me/all.xml ``` ### curl 得到所有IP细节 (挖掘机) ``` curl ifconfig.me/all ``` ### 使用 DYDNS (当你使用 DYDNS 服务时有用) ``` curl -s 'http://checkip.dyndns.org' | sed 's/.*Current IP Address: \([0-9\.]*\).*/\1/g' curl -s http://checkip.dyndns.org/ | grep -o "[[:digit:].]\+" ``` ### 使用 Wget 代替 Curl ``` wget http://ipecho.net/plain -O - -q ; echo wget http://observebox.com/ip -O - -q ; echo ``` ### 使用 host 和 dig 命令 如果有的话,你也可以直接使用 host 和 dig 命令。 ``` host -t a dartsclink.com | sed 's/.*has address //' dig +short myip.opendns.com @resolver1.opendns.com ``` ### bash 脚本示例: ``` #!/bin/bash PUBLIC_IP=`wget http://ipecho.net/plain -O - -q ; echo` echo $PUBLIC_IP ``` 简单易用。 我实际上是在写一个用于记录每日我的路由器中所有 IP 变化并保存到一个文件的脚本。我在搜索过程中找到了这些很好用的命令。希望某天它能帮到其他人。 --- via: <http://www.blackmoreops.com/2015/06/14/how-to-get-public-ip-from-linux-terminal/> 译者:[KevinSJ](https://github.com/KevinSJ) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,085
在 Linux 下使用 RAID(一):介绍 RAID 的级别和概念
http://www.tecmint.com/understanding-raid-setup-in-linux/
2015-08-24T17:33:00
[ "RAID" ]
https://linux.cn/article-6085-1.html
RAID 的意思是廉价磁盘冗余阵列(Redundant Array of Inexpensive Disks),但现在它被称为独立磁盘冗余阵列(Redundant Array of Independent Drives)。早先一个容量很小的磁盘都是非常昂贵的,但是现在我们可以很便宜的买到一个更大的磁盘。Raid 是一系列放在一起,成为一个逻辑卷的磁盘集合。 ![RAID in Linux](/data/attachment/album/201508/24/173400b4ft0ectejctcc7e.jpg) *在 Linux 中理解 RAID 设置* RAID 包含一组或者一个集合甚至一个阵列。使用一组磁盘结合驱动器组成 RAID 阵列或 RAID 集。将至少两个磁盘连接到一个 RAID 控制器,而成为一个逻辑卷,也可以将多个驱动器放在一个组中。一组磁盘只能使用一个 RAID 级别。使用 RAID 可以提高服务器的性能。不同 RAID 的级别,性能会有所不同。它通过容错和高可用性来保存我们的数据。 这个系列被命名为“在 Linux 下使用 RAID”,分为9个部分,包括以下主题: * 第1部分:[介绍 RAID 的级别和概念](/article-6085-1.html) * 第2部分:[在Linux中如何设置 RAID0(条带化)](/article-6087-1.html) * 第3部分:[在Linux中如何设置 RAID1(镜像化)](/article-6093-1.html) * 第4部分:[在Linux中如何设置 RAID5(条带化与分布式奇偶校验)](/article-6102-1.html) * 第5部分:[在Linux中如何设置 RAID6(条带双分布式奇偶校验)](/article-6121-1.html) * 第6部分:[在Linux中设置 RAID 10 或1 + 0(嵌套)](/article-6122-1.html) * 第7部分:[扩展现有的 RAID 阵列和删除故障的磁盘](/article-6123-1.html) * 第8部分:[在 RAID 中恢复(重建)损坏的驱动器](/article-6448-1.html) * 第9部分:[在 Linux 中管理 RAID](/article-6463-1.html) 这是9篇系列教程的第1部分,在这里我们将介绍 RAID 的概念和 RAID 级别,这是在 Linux 中构建 RAID 需要理解的。 ### 软件 RAID 和硬件 RAID 软件 RAID 的性能较低,因为其使用主机的资源。 需要加载 RAID 软件以从软件 RAID 卷中读取数据。在加载 RAID 软件前,操作系统需要引导起来才能加载 RAID 软件。在软件 RAID 中无需物理硬件。零成本投资。 硬件 RAID 的性能较高。他们采用 PCI Express 卡物理地提供有专用的 RAID 控制器。它不会使用主机资源。他们有 NVRAM 用于缓存的读取和写入。缓存用于 RAID 重建时,即使出现电源故障,它会使用后备的电池电源保持缓存。对于大规模使用是非常昂贵的投资。 硬件 RAID 卡如下所示: ![Hardware RAID](/data/attachment/album/201508/24/173401kcpw98cnlbqn2w32.jpg) *硬件 RAID* #### 重要的 RAID 概念 * **校验**方式用在 RAID 重建中从校验所保存的信息中重新生成丢失的内容。 RAID 5,RAID 6 基于校验。 * **条带化**是将切片数据随机存储到多个磁盘。它不会在单个磁盘中保存完整的数据。如果我们使用2个磁盘,则每个磁盘存储我们的一半数据。 * **镜像**被用于 RAID 1 和 RAID 10。镜像会自动备份数据。在 RAID 1 中,它会保存相同的内容到其他盘上。 * **热备份**只是我们的服务器上的一个备用驱动器,它可以自动更换发生故障的驱动器。在我们的阵列中,如果任何一个驱动器损坏,热备份驱动器会自动用于重建 RAID。 * **块**是 RAID 控制器每次读写数据时的最小单位,最小 4KB。通过定义块大小,我们可以增加 I/O 性能。 RAID有不同的级别。在这里,我们仅列出在真实环境下的使用最多的 RAID 级别。 * RAID0 = 条带化 * RAID1 = 镜像 * RAID5 = 单磁盘分布式奇偶校验 * RAID6 = 双磁盘分布式奇偶校验 * RAID10 = 镜像 + 条带。(嵌套RAID) RAID 在大多数 Linux 发行版上使用名为 mdadm 的软件包进行管理。让我们先对每个 RAID 级别认识一下。 #### RAID 0 / 条带化 ![](/data/attachment/album/201508/24/173403wxx2re9gzg0ixvsr.png) 条带化有很好的性能。在 RAID 0(条带化)中数据将使用切片的方式被写入到磁盘。一半的内容放在一个磁盘上,另一半内容将被写入到另一个磁盘。 假设我们有2个磁盘驱动器,例如,如果我们将数据“TECMINT”写到逻辑卷中,“T”将被保存在第一盘中,“E”将保存在第二盘,'C'将被保存在第一盘,“M”将保存在第二盘,它会一直继续此循环过程。(LCTT 译注:实际上不可能按字节切片,是按数据块切片的。) 在这种情况下,如果驱动器中的任何一个发生故障,我们就会丢失数据,因为一个盘中只有一半的数据,不能用于重建 RAID。不过,当比较写入速度和性能时,RAID 0 是非常好的。创建 RAID 0(条带化)至少需要2个磁盘。如果你的数据是非常宝贵的,那么不要使用此 RAID 级别。 * 高性能。 * RAID 0 中容量零损失。 * 零容错。 * 写和读有很高的性能。 #### RAID 1 / 镜像化 ![](/data/attachment/album/201508/24/173403l411i0j8o00dfogy.png) 镜像也有不错的性能。镜像可以对我们的数据做一份相同的副本。假设我们有两个2TB的硬盘驱动器,我们总共有4TB,但在镜像中,但是放在 RAID 控制器后面的驱动器形成了一个逻辑驱动器,我们只能看到这个逻辑驱动器有2TB。 当我们保存数据时,它将同时写入这两个2TB驱动器中。创建 RAID 1(镜像化)最少需要两个驱动器。如果发生磁盘故障,我们可以通过更换一个新的磁盘恢复 RAID 。如果在 RAID 1 中任何一个磁盘发生故障,我们可以从另一个磁盘中获取相同的数据,因为另外的磁盘中也有相同的数据。所以是零数据丢失。 * 良好的性能。 * 总容量丢失一半可用空间。 * 完全容错。 * 重建会更快。 * 写性能变慢。 * 读性能变好。 * 能用于操作系统和小规模的数据库。 #### RAID 5 / 分布式奇偶校验 ![](/data/attachment/album/201508/24/173404xjbpjvakpybbyyk9.png) RAID 5 多用于企业级。 RAID 5 的以分布式奇偶校验的方式工作。奇偶校验信息将被用于重建数据。它从剩下的正常驱动器上的信息来重建。在驱动器发生故障时,这可以保护我们的数据。 假设我们有4个驱动器,如果一个驱动器发生故障而后我们更换发生故障的驱动器后,我们可以从奇偶校验中重建数据到更换的驱动器上。奇偶校验信息存储在所有的4个驱动器上,如果我们有4个 1TB 的驱动器。奇偶校验信息将被存储在每个驱动器的256G中,而其它768GB是用户自己使用的。单个驱动器故障后,RAID 5 依旧正常工作,如果驱动器损坏个数超过1个会导致数据的丢失。 * 性能卓越 * 读速度将非常好。 * 写速度处于平均水准,如果我们不使用硬件 RAID 控制器,写速度缓慢。 * 从所有驱动器的奇偶校验信息中重建。 * 完全容错。 * 1个磁盘空间将用于奇偶校验。 * 可以被用在文件服务器,Web服务器,非常重要的备份中。 #### RAID 6 双分布式奇偶校验磁盘 ![](/data/attachment/album/201508/24/173404p25l2kk2oklzb9oo.png) RAID 6 和 RAID 5 相似但它有两个分布式奇偶校验。大多用在大数量的阵列中。我们最少需要4个驱动器,即使有2个驱动器发生故障,我们依然可以更换新的驱动器后重建数据。 它比 RAID 5 慢,因为它将数据同时写到4个驱动器上。当我们使用硬件 RAID 控制器时速度就处于平均水准。如果我们有6个的1TB驱动器,4个驱动器将用于数据保存,2个驱动器将用于校验。 * 性能不佳。 * 读的性能很好。 * 如果我们不使用硬件 RAID 控制器写的性能会很差。 * 从两个奇偶校验驱动器上重建。 * 完全容错。 * 2个磁盘空间将用于奇偶校验。 * 可用于大型阵列。 * 用于备份和视频流中,用于大规模。 #### RAID 10 / 镜像+条带 ![](/data/attachment/album/201508/24/173404dv00t6kvwtivrv01.png) ![](/data/attachment/album/201508/24/173405vmcgppwec1v48n6p.png) RAID 10 可以被称为1 + 0或0 +1。它将做镜像+条带两个工作。在 RAID 10 中首先做镜像然后做条带。在 RAID 01 上首先做条带,然后做镜像。RAID 10 比 01 好。 假设,我们有4个驱动器。当我逻辑卷上写数据时,它会使用镜像和条带的方式将数据保存到4个驱动器上。 如果我在 RAID 10 上写入数据“TECMINT”,数据将使用如下方式保存。首先将“T”同时写入两个磁盘,“E”也将同时写入另外两个磁盘,所有数据都写入两块磁盘。这样可以将每个数据复制到另外的磁盘。 同时它将使用 RAID 0 方式写入数据,遵循将“T”写入第一组盘,“E”写入第二组盘。再次将“C”写入第一组盘,“M”到第二组盘。 * 良好的读写性能。 * 总容量丢失一半的可用空间。 * 容错。 * 从副本数据中快速重建。 * 由于其高性能和高可用性,常被用于数据库的存储中。 ### 结论 在这篇文章中,我们已经了解了什么是 RAID 和在实际环境大多采用哪个级别的 RAID。希望你已经学会了上面所写的。对于 RAID 的构建必须了解有关 RAID 的基本知识。以上内容可以基本满足你对 RAID 的了解。 在接下来的文章中,我将介绍如何设置和使用各种级别创建 RAID,增加 RAID 组(阵列)和驱动器故障排除等。 --- via: <http://www.tecmint.com/understanding-raid-setup-in-linux/> 作者:[Babin Lonston](http://www.tecmint.com/author/babinlonston/) 译者:[strugglingyouth](https://github.com/strugglingyouth) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,087
在 Linux 下使用 RAID(二):使用 mdadm 工具创建软件 RAID 0 (条带化)
http://www.tecmint.com/create-raid0-in-linux/
2015-08-25T09:25:00
[ "RAID" ]
https://linux.cn/article-6087-1.html
RAID 即廉价磁盘冗余阵列,其高可用性和可靠性适用于大规模环境中,相比正常使用,数据更需要被保护。RAID 是一些磁盘的集合,是包含一个阵列的逻辑卷。驱动器可以组合起来成为一个阵列或称为(组的)集合。 创建 RAID 最少应使用2个连接到 RAID 控制器的磁盘组成,来构成逻辑卷,可以根据定义的 RAID 级别将更多的驱动器添加到一个阵列中。不使用物理硬件创建的 RAID 被称为软件 RAID。软件 RAID 也叫做穷人 RAID。 ![Setup RAID0 in Linux](/data/attachment/album/201508/24/222802kx000602thjwxthu.jpg) *在 Linux 中创建 RAID0* 使用 RAID 的主要目的是为了在发生单点故障时保存数据,如果我们使用单个磁盘来存储数据,如果它损坏了,那么就没有机会取回我们的数据了,为了防止数据丢失我们需要一个容错的方法。所以,我们可以使用多个磁盘组成 RAID 阵列。 #### 在 RAID 0 中条带是什么 条带是通过将数据在同时分割到多个磁盘上。假设我们有两个磁盘,如果我们将数据保存到该逻辑卷上,它会将数据保存在两个磁盘上。使用 RAID 0 是为了获得更好的性能,但是如果驱动器中一个出现故障,我们将不能得到完整的数据。因此,使用 RAID 0 不是一种好的做法。唯一的解决办法就是安装有 RAID 0 逻辑卷的操作系统来提高重要文件的安全性。 * RAID 0 性能较高。 * 在 RAID 0 上,空间零浪费。 * 零容错(如果硬盘中的任何一个发生故障,无法取回数据)。 * 写和读性能都很好。 #### 要求 创建 RAID 0 允许的最小磁盘数目是2个,但你可以添加更多的磁盘,不过数目应该是2,4,6,8等的偶数。如果你有一个物理 RAID 卡并且有足够的端口,你可以添加更多磁盘。 在这里,我们没有使用硬件 RAID,此设置只需要软件 RAID。如果我们有一个物理硬件 RAID 卡,我们可以从它的功能界面访问它。有些主板默认内建 RAID 功能,还可以使用 Ctrl + I 键访问它的界面。 如果你是刚开始设置 RAID,请阅读我们前面的文章,我们已经介绍了一些关于 RAID 基本的概念。 * [介绍 RAID 的级别和概念](/article-6085-1.html) **我的服务器设置** ``` 操作系统 : CentOS 6.5 Final IP 地址 : 192.168.0.225 两块盘 : 20 GB each ``` 这是9篇系列教程的第2部分,在这部分,我们将看看如何能够在 Linux 上创建和使用 RAID 0(条带化),以名为 sdb 和 sdc 两个 20GB 的硬盘为例。 ### 第1步:更新系统和安装管理 RAID 的 mdadm 软件 1、 在 Linux 上设置 RAID 0 前,我们先更新一下系统,然后安装`mdadm` 包。mdadm 是一个小程序,这将使我们能够在Linux下配置和管理 RAID 设备。 ``` # yum clean all && yum update # yum install mdadm -y ``` ![install mdadm in linux](/data/attachment/album/201508/24/222803t18vzbvv8g0bb89m.png) *安装 mdadm 工具* ### 第2步:确认连接了两个 20GB 的硬盘 2、 在创建 RAID 0 前,请务必确认两个硬盘能被检测到,使用下面的命令确认。 ``` # ls -l /dev | grep sd ``` ![Check Hard Drives in Linux](/data/attachment/album/201508/24/222803rq0qe0rwe3n22wkw.png) *检查硬盘* 3、 一旦检测到新的硬盘驱动器,同时检查是否连接的驱动器已经被现有的 RAID 使用,使用下面的`mdadm` 命令来查看。 ``` # mdadm --examine /dev/sd[b-c] ``` ![Check RAID Devices in Linux](/data/attachment/album/201508/24/222804ulntnhzxylob0b0t.png) *检查 RAID 设备* 从上面的输出我们可以看到,没有任何 RAID 使用 sdb 和 sdc 这两个驱动器。 ### 第3步:创建 RAID 分区 4、 现在用 sdb 和 sdc 创建 RAID 的分区,使用 fdisk 命令来创建。在这里,我将展示如何创建 sdb 驱动器上的分区。 ``` # fdisk /dev/sdb ``` 请按照以下说明创建分区。 * 按`n` 创建新的分区。 * 然后按`P` 选择主分区。 * 接下来选择分区号为1。 * 只需按两次回车键选择默认值即可。 * 然后,按`P` 来显示创建好的分区。 ![Create Partitions in Linux](/data/attachment/album/201508/24/222806zse644qqf46d79y6.png) *创建分区* 请按照以下说明将分区创建为 Linux 的 RAID 类型。 * 按`L`,列出所有可用的类型。 * 按`t` 去修改分区。 * 键入`fd` 设置为 Linux 的 RAID 类型,然后按回车确认。 * 然后再次使用`p`查看我们所做的更改。 * 使用`w`保存更改。 ![Create RAID Partitions](/data/attachment/album/201508/24/222809j0hzhtq1huykhecw.png) *在 Linux 上创建 RAID 分区* **注**: 请使用上述步骤同样在 sdc 驱动器上创建分区。 5、 创建分区后,验证这两个驱动器是否正确定义 RAID,使用下面的命令。 ``` # mdadm --examine /dev/sd[b-c] # mdadm --examine /dev/sd[b-c]1 ``` ![Verify RAID Partitions](/data/attachment/album/201508/24/222811w6uql6ez699he6c7.png) *验证 RAID 分区* ### 第4步:创建 RAID md 设备 6、 现在使用以下命令创建 md 设备(即 /dev/md0),并选择 RAID 合适的级别。 ``` # mdadm -C /dev/md0 -l raid0 -n 2 /dev/sd[b-c]1 # mdadm --create /dev/md0 --level=stripe --raid-devices=2 /dev/sd[b-c]1 ``` * -C – 创建 * -l – 级别 * -n – RAID 设备数 7、 一旦 md 设备已经建立,使用如下命令可以查看 RAID 级别,设备和阵列的使用状态。 ``` # cat /proc/mdstat ``` ![Verify RAID Level](/data/attachment/album/201508/24/222811wvx8y222xnz2prww.png) *查看 RAID 级别* ``` # mdadm -E /dev/sd[b-c]1 ``` ![Verify RAID Device](/data/attachment/album/201508/24/222813n6p4hf6m9jpwpepz.png) *查看 RAID 设备* ``` # mdadm --detail /dev/md0 ``` ![Verify RAID Array](/data/attachment/album/201508/24/222815q1llml1slwhbhqrb.png) *查看 RAID 阵列* ### 第5步:给 RAID 设备创建文件系统 8、 将 RAID 设备 /dev/md0 创建为 ext4 文件系统,并挂载到 /mnt/raid0 下。 ``` # mkfs.ext4 /dev/md0 ``` ![Create ext4 Filesystem in Linux](/data/attachment/album/201508/24/222817tyj74d56fqdpk72e.png) *创建 ext4 文件系统* 9、 在 RAID 设备上创建好 ext4 文件系统后,现在创建一个挂载点(即 /mnt/raid0),并将设备 /dev/md0 挂载在它下。 ``` # mkdir /mnt/raid0 # mount /dev/md0 /mnt/raid0/ ``` 10、下一步,使用 df 命令验证设备 /dev/md0 是否被挂载在 /mnt/raid0 下。 ``` # df -h ``` 11、 接下来,在挂载点 /mnt/raid0 下创建一个名为`tecmint.txt` 的文件,为创建的文件添加一些内容,并查看文件和目录的内容。 ``` # touch /mnt/raid0/tecmint.txt # echo "Hi everyone how you doing ?" > /mnt/raid0/tecmint.txt # cat /mnt/raid0/tecmint.txt # ls -l /mnt/raid0/ ``` ![Verify Mount Device](/data/attachment/album/201508/24/222822coztobq68wpzf6qp.png) *验证挂载的设备* 12、 当你验证挂载点后,就可以将它添加到 /etc/fstab 文件中。 ``` # vim /etc/fstab ``` 添加以下条目,根据你的安装位置和使用文件系统的不同,自行做修改。 ``` /dev/md0 /mnt/raid0 ext4 deaults 0 0 ``` ![Add Device to Fstab](/data/attachment/album/201508/24/222823tj0od78qedw59o9s.png) *添加设备到 fstab 文件中* 13、 使用 mount 命令的 `-a` 来检查 fstab 的条目是否有误。 ``` # mount -av ``` ![Check Errors in Fstab](/data/attachment/album/201508/24/222825n644vx4pfd4x62rr.png) *检查 fstab 文件是否有误* ### 第6步:保存 RAID 配置 14、 最后,保存 RAID 配置到一个文件中,以供将来使用。我们再次使用带有`-s` (scan) 和`-v` (verbose) 选项的 `mdadm` 命令,如图所示。 ``` # mdadm -E -s -v >> /etc/mdadm.conf # mdadm --detail --scan --verbose >> /etc/mdadm.conf # cat /etc/mdadm.conf ``` ![Save RAID Configurations](/data/attachment/album/201508/24/222826atiiobykt9jy8yxt.png) *保存 RAID 配置* 就这样,我们在这里看到,如何通过使用两个硬盘配置具有条带化的 RAID 0 。在接下来的文章中,我们将看到如何设置 RAID 1。 --- via: <http://www.tecmint.com/create-raid0-in-linux/> 作者:[Babin Lonston](http://www.tecmint.com/author/babinlonston/) 译者:[strugglingyouth](https://github.com/strugglingyouth) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
301
Moved Permanently
null
6,088
如何使用 Datadog 监控 NGINX(第三篇)
https://www.datadoghq.com/blog/how-to-monitor-nginx-with-datadog/
2015-08-25T13:25:00
[ "NGINX", "监控" ]
https://linux.cn/article-6088-1.html
![](/data/attachment/album/201508/25/002724nfcf6b76f2bfbh7r.png) 如果你已经阅读了前面的[如何监控 NGINX](/article-5970-1.html),你应该知道从你网络环境的几个指标中可以获取多少信息。而且你也看到了从 NGINX 特定的基础中收集指标是多么容易的。但要实现全面,持续的监控 NGINX,你需要一个强大的监控系统来存储并将指标可视化,当异常发生时能提醒你。在这篇文章中,我们将向你展示如何使用 Datadog 安装 NGINX 监控,以便你可以在定制的仪表盘中查看这些指标: ![NGINX dashboard](/data/attachment/album/201508/25/002733xwwxnu5i09ivwiew.png) Datadog 允许你以单个主机、服务、流程和度量来构建图形和警告,或者使用它们的几乎任何组合构建。例如,你可以监控你的所有主机,或者某个特定可用区域的所有NGINX主机,或者您可以监视具有特定标签的所有主机的一个关键指标。本文将告诉您如何: * 在 Datadog 仪表盘上监控 NGINX 指标,就像监控其他系统一样 * 当一个关键指标急剧变化时设置自动警报来通知你 ### 配置 NGINX 为了收集 NGINX 指标,首先需要确保 NGINX 已启用 status 模块和一个 报告 status 指标的 URL。一步步的[配置开源 NGINX](/article-5985-1.html#open-source) 和 [NGINX Plus](/article-5985-1.html#plus) 请参见之前的相关文章。 ### 整合 Datadog 和 NGINX #### 安装 Datadog 代理 Datadog 代理是[一个开源软件](https://github.com/DataDog/dd-agent),它能收集和报告你主机的指标,这样就可以使用 Datadog 查看和监控他们。安装这个代理通常[仅需要一个命令](https://app.datadoghq.com/account/settings#agent) 只要你的代理启动并运行着,你会看到你主机的指标报告[在你 Datadog 账号下](https://app.datadoghq.com/infrastructure)。 ![Datadog infrastructure list](/data/attachment/album/201508/25/002735dem7mpr1mo7ba7g6.png) #### 配置 Agent 接下来,你需要为代理创建一个简单的 NGINX 配置文件。在你系统中代理的配置目录应该[在这儿](http://docs.datadoghq.com/guides/basic_agent_usage/)找到。 在目录里面的 conf.d/nginx.yaml.example 中,你会发现[一个简单的配置文件](https://github.com/DataDog/dd-agent/blob/master/conf.d/nginx.yaml.example),你可以编辑并提供 status URL 和可选的标签为每个NGINX 实例: ``` init_config: instances: - nginx_status_url: http://localhost/nginx_status/ tags: - instance:foo ``` 当你提供了 status URL 和任意 tag,将配置文件保存为 conf.d/nginx.yaml。 #### 重启代理 你必须重新启动代理程序来加载新的配置文件。重新启动命令[在这里](http://docs.datadoghq.com/guides/basic_agent_usage/),根据平台的不同而不同。 #### 检查配置文件 要检查 Datadog 和 NGINX 是否正确整合,运行 Datadog 的 info 命令。每个平台使用的命令[看这儿](http://docs.datadoghq.com/guides/basic_agent_usage/)。 如果配置是正确的,你会看到这样的输出: ``` Checks ====== [...] nginx ----- - instance #0 [OK] - Collected 8 metrics & 0 events ``` #### 安装整合 最后,在你的 Datadog 帐户打开“Nginx 整合”。这非常简单,你只要在 [NGINX 整合设置](https://app.datadoghq.com/account/settings#integrations/nginx)中点击“Install Integration”按钮。 ![Install integration](/data/attachment/album/201508/25/002737yphg9qdxs69pttvq.png) ### 指标! 一旦代理开始报告 NGINX 指标,你会看到[一个 NGINX 仪表盘](https://app.datadoghq.com/dash/integration/nginx)出现在在你 Datadog 可用仪表盘的列表中。 基本的 NGINX 仪表盘显示有用的图表,囊括了几个[我们的 NGINX 监控介绍](/article-5970-1.html)中的关键指标。 (一些指标,特别是请求处理时间要求进行日志分析,Datadog 不支持。) 你可以通过增加 NGINX 之外的重要指标的图表来轻松创建一个全面的仪表盘,以监控你的整个网站设施。例如,你可能想监视你 NGINX 的主机级的指标,如系统负载。要构建一个自定义的仪表盘,只需点击靠近仪表盘的右上角的选项并选择“Clone Dash”来克隆一个默认的 NGINX 仪表盘。 ![Clone dash](/data/attachment/album/201508/25/002743b9ca3h1p1iz39nn0.png) 你也可以使用 Datadog 的[主机地图](https://www.datadoghq.com/blog/introducing-host-maps-know-thy-infrastructure/)在更高层面监控你的 NGINX 实例,举个例子,用颜色标示你所有的 NGINX 主机的 CPU 使用率来辨别潜在热点。 ![](/data/attachment/album/201508/25/002754jux99994ae64v984.png) ### NGINX 指标警告 一旦 Datadog 捕获并可视化你的指标,你可能会希望建立一些监控自动地密切关注你的指标,并当有问题提醒你。下面将介绍一个典型的例子:一个提醒你 NGINX 吞吐量突然下降时的指标监控器。 #### 监控 NGINX 吞吐量 Datadog 指标警报可以是“基于吞吐量的”(当指标超过设定值会警报)或“基于变化幅度的”(当指标的变化超过一定范围会警报)。在这个例子里,我们会采取后一种方式,当每秒传入的请求急剧下降时会提醒我们。下降往往意味着有问题。 1. **创建一个新的指标监控**。从 Datadog 的“Monitors”下拉列表中选择“New Monitor”。选择“Metric”作为监视器类型。 ![NGINX metric monitor](/data/attachment/album/201508/25/002757dn4t65nfxg88ubt8.png) 2. **定义你的指标监视器**。我们想知道 NGINX 每秒总的请求量下降的数量,所以我们在基础设施中定义我们感兴趣的 nginx.net.request*per*s 之和。 ![NGINX metric](/data/attachment/album/201508/25/002759go4bp4o448jbuh44.png) 3. **设置指标警报条件**。我们想要在变化时警报,而不是一个固定的值,所以我们选择“Change Alert”。我们设置监控为无论何时请求量下降了30%以上时警报。在这里,我们使用一个一分钟的数据窗口来表示 “now” 指标的值,对横跨该间隔内的平均变化和之前 10 分钟的指标值作比较。 ![NGINX metric change alert](/data/attachment/album/201508/25/002801kv63gfr5uj0virrj.png) 4. **自定义通知**。如果 NGINX 的请求量下降,我们想要通知我们的团队。在这个例子中,我们将给 ops 团队的聊天室发送通知,并给值班工程师发送短信。在“Say what’s happening”中,我们会为监控器命名,并添加一个伴随该通知的短消息,建议首先开始调查的内容。我们会 @ ops 团队使用的 Slack,并 @pagerduty [将警告发给短信](https://www.datadoghq.com/blog/pagerduty/)。 ![NGINX metric notification](/data/attachment/album/201508/25/002803c262n2rllfbhshvb.png) 5. **保存集成监控**。点击页面底部的“Save”按钮。你现在在监控一个关键的 NGINX [工作指标](https://www.datadoghq.com/blog/monitoring-101-collecting-data/#metrics),而当它快速下跌时会给值班工程师发短信。 ### 结论 在这篇文章中,我们谈到了通过整合 NGINX 与 Datadog 来可视化你的关键指标,并当你的网络基础架构有问题时会通知你的团队。 如果你一直使用你自己的 Datadog 账号,你现在应该可以极大的提升你的 web 环境的可视化,也有能力对你的环境、你所使用的模式、和对你的组织最有价值的指标创建自动监控。 如果你还没有 Datadog 帐户,你可以注册[免费试用](https://www.datadoghq.com/blog/how-to-monitor-nginx-with-datadog/#sign-up),并开始监视你的基础架构,应用程序和现在的服务。 --- via: <https://www.datadoghq.com/blog/how-to-monitor-nginx-with-datadog/> 作者:K Young 译者:[strugglingyouth](https://github.com/strugglingyouth) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
200
OK
If you’ve already read [our post on monitoring NGINX](https://www.datadoghq.com/blog/how-to-monitor-nginx/), you know how much information you can gain about your web environment from just a handful of metrics. And you’ve also seen just how easy it is to start collecting metrics from NGINX on ad hoc basis. But to implement comprehensive, ongoing NGINX monitoring, you will need a robust monitoring system to store and visualize your metrics and logs, and to alert you when anomalies happen. In this post, we’ll show you how to set up NGINX performance monitoring and log collection in Datadog so that you can use [customizable dashboards](https://www.datadoghq.com/dashboards/nginx-dashboard/) like this: Datadog allows you to build graphs and alerts around individual hosts, services, processes, metrics—or virtually any combination thereof. For instance, you can monitor all of your NGINX hosts, or all hosts in a certain availability zone, or you can monitor a single key metric being reported by all hosts with a certain tag. This post will show you how to: - Monitor NGINX performance metrics on [Datadog dashboard](https://www.datadoghq.com/dashboards/nginx-dashboard/)s, alongside all your other systems - Send NGINX logs to Datadog for monitoring and analysis - Set up alerts to automatically notify you of unexpected changes [Configuring NGINX](#configuring-nginx) To collect metrics from NGINX, you first need to ensure that NGINX has an enabled status module and a URL for reporting its status metrics. Step-by-step instructions [for configuring open source NGINX](https://www.datadoghq.com/blog/how-to-collect-nginx-metrics/#metrics-collection-nginx-open-source) and [NGINX Plus](https://www.datadoghq.com/blog/how-to-collect-nginx-metrics/#metrics-collection-nginx-plus) are available in our companion post on metric collection. [Integrating Datadog and NGINX](#integrating-datadog-and-nginx) [Install the Datadog Agent](#install-the-datadog-agent) The Datadog Agent is [the open source software](https://github.com/datadog/datadog-agent) that collects and reports metrics from your hosts so that you can view and monitor them in Datadog. Installing the Agent usually takes [just a single command](https://app.datadoghq.com/account/settings/agent/latest?platform=overview). As soon as your Agent is up and running, you should see your host reporting metrics [in your Datadog account](https://app.datadoghq.com/infrastructure). [Configure the Agent](#configure-the-agent) Next you’ll need to create a simple NGINX configuration file for the Agent. You can find the location of the Agent’s configuration directory for integrations (**conf.d**) for your OS [here](https://docs.datadoghq.com/agent/guide/agent-configuration-files/?tab=agentv6). In that directory you will find an **nginx.d** subdirectory containing an NGINX configuration template named **conf.yaml.example**. Copy this file to **conf.yaml**, and edit it to provide the status URL and optional tags for each of your NGINX instances: conf.yaml ``` init_config: instances: - nginx_status_url: http://localhost/nginx_status/ tags: - instance:foo ``` If you’re using NGINX Plus, you’ll also need to set the `use_plus_api` parameter to `true` for each instance. See the documentation for further information about [configuring the Agent for NGINX Plus](https://docs.datadoghq.com/integrations/nginx/?tab=host#configuration). [Restart the Agent](#restart-the-agent) You must restart the Agent to load your new configuration file. Execute the restart command for your platform, as shown in the [Agent documentation](https://docs.datadoghq.com/agent/guide/agent-commands/#restart-the-agent). [Verify the configuration settings](#verify-the-configuration-settings) To check that Datadog and NGINX are properly integrated, run the Agent’s [ status](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) command and look for `nginx` under the `Running Checks` section.[Install the integration](#install-the-integration) Finally, switch on the NGINX integration inside your Datadog account. It’s as simple as clicking the “Install Integration” button under the Configuration tab in the [NGINX integration settings](https://app.datadoghq.com/account/settings#integrations/nginx). [Metrics!](#metrics) Once the Agent begins reporting NGINX performance metrics, you will see [an NGINX dashboard](https://app.datadoghq.com/screen/integration/21/nginx---overview) among your list of available dashboards in Datadog. The basic NGINX dashboard displays a handful of graphs encapsulating most of the key metrics highlighted [in our introduction to NGINX monitoring](https://www.datadoghq.com/blog/how-to-monitor-nginx/). **Collect, analyze, and alert on NGINX metrics and logs with Datadog.** You can easily create a comprehensive dashboard for monitoring your entire web stack by adding additional graphs with important metrics from outside NGINX. For example, you might want to monitor host-level metrics on your NGINX hosts, such as system load. To start building a custom dashboard, simply clone the default NGINX dashboard by clicking on the gear near the upper right of the dashboard and selecting “Clone Dashboard”. You can also monitor your NGINX instances at a higher level using Datadog’s [host maps](https://www.datadoghq.com/blog/introducing-host-maps-know-thy-infrastructure/)—for instance, color-coding all your NGINX hosts by CPU usage to identify potential hotspots. [Capturing NGINX logs](#capturing-nginx-logs) Now that you’re collecting NGINX metrics, the next step is to start collecting logs as well. This will extend your visibility beyond metrics, so you can search and filter based on facets like `Status Code` and `URL Path` . To show how Datadog log management works, we’ll walk through how you can configure an NGINX server to submit logs to Datadog, and we’ll see how those will look in your Datadog account. [Enabling logging](#enabling-logging) Log collection is disabled in the Agent by default. To enable it, edit the Agent configuration file, **datadog.yaml**. (The path to this file varies by platform. See the [Datadog Agent documentation](https://docs.datadoghq.com/agent/) for more information.) Uncomment the relevant line and set `logs_enabled` to `true` : datadog.yaml ``` # Logs agent is disabled by default logs_enabled: true ``` Next, modify the configuration of the NGINX integration. Add the following content to the `logs` item within the Agent’s [config file for the integration](https://docs.datadoghq.com/agent/), **conf.d/nginx.d/conf.yaml**. This tells the Agent where to find the NGINX logs, and specifies some metadata to be applied: conf.yaml ``` logs: - type: file path: /var/log/nginx/access.log service: my.nginx.service source: nginx sourcecategory: http_web_access ``` This applies a service name of **my.nginx.service** to all the logs generated by this NGINX instance. This service tag is also applied to request traces in [Datadog APM](https://www.datadoghq.com/blog/announcing-apm/), enabling you to pivot smoothly between sources of monitoring data for your applications and infrastructure. The configuration above also applies `source` and `sourcecategory` tags, which you can use to [aggregate data](https://docs.datadoghq.com/getting_started/tagging/) from multiple sources and hosts. Finally, execute the Agent’s restart command for your platform, as shown in the [Agent documentation](https://docs.datadoghq.com/agent/guide/agent-commands/#restart-the-agent). [Use JSON logs for automatic parsing](#use-json-logs-for-automatic-parsing) Datadog will process any log formatted as JSON [automatically](https://docs.datadoghq.com/logs/processing/), turning key-value pairs into attributes that you can use to group and filter. You can configure your NGINX access logs to [escape JSON characters](http://nginx.org/en/docs/http/ngx_http_log_module.html#log_format), making it straightforward to get your logs into Datadog. The configuration snippet below shows how you can log embedded variables from the NGINX [core](http://nginx.org/en/docs/http/ngx_http_core_module.html#variables) and [proxy](http://nginx.org/en/docs/http/ngx_http_proxy_module.html#variables) modules. Some of these values are collected as [standard attributes](https://docs.datadoghq.com/logs/processing/attributes_naming_convention/), which help you correlate logs from disparate sources by providing consistent names for data that can appear in logs throughout your stack. ``` log_format json_custom escape=json '{' '"http.url":"$request_uri",' '"http.version":"$server_protocol",' '"http.status_code":$status,' '"http.method":"$request_method",' '"http.referer":"$http_referer",' '"http.useragent":"$http_user_agent",' '"time_local":"$time_local",' '"remote_addr":"$remote_addr",' '"remote_user":"$remote_user",' '"body_bytes_sent":"$body_bytes_sent",' '"request_time":$request_time,' '"response_content_type":"$sent_http_content_type",' '"X-Forwarded-For":"$proxy_add_x_forwarded_for",' '"custom_key":"custom_value"' '}'; ``` (Note that if you want to be able to [create a measure](https://docs.datadoghq.com/logs/explorer/) from a log attribute, you should leave its value unquoted, as we’ve shown with the `request_time` and `http.status_code` attributes in the example above.) Along with NGINX configuration variables, Datadog will also process the pair `"custom_key":"custom_value"` (or any pair you choose) into an attribute, helping you organize your log data using any dimension that’s relevant to your use case. Take care not to use custom variable names that would collide with any [reserved attributes](https://docs.datadoghq.com/logs/processing/#reserved-attributes). [Viewing log info in Datadog](#viewing-log-info-in-datadog) You can now see information from your NGINX logs begin to appear on the [Log Explorer](https://app.datadoghq.com/logs) page in your Datadog account. To isolate this service’s logs, click **my.nginx.service** under the Service list in the sidebar. In the example image below, the log entry shows that NGINX processed a GET request for the file **info.php** and returned a status code of 200. In the Log Explorer, you can filter logs to see information that’s not easily discernible in the log stream. To visualize your logs, you can click the Analytics button in the top-left corner and use the facet controls in the left column to filter and aggregate your log data. In the example below, we’ve used the `URL Path` and `Status Code` facets to see which endpoints return the most 5xx errors. For more information, see [our docs on exploring, searching, and graphing your logs](https://docs.datadoghq.com/logs/explore/). [Extending NGINX logs](#extending-nginx-logs) By default, NGINX writes logs in the [Combined Log Format](https://httpd.apache.org/docs/current/logs.html#combined). You can customize the log format, as described in the [NGINX documentation](http://nginx.org/en/docs/http/ngx_http_log_module.html#log_format). (For an example of this, see [part 2 of this series](https://www.datadoghq.com/blog/how-to-collect-nginx-metrics/#metrics-collection-nginx-logs), which shows how to add request processing time to your NGINX logs.) When you install Datadog’s NGINX integration, a [processing pipeline](https://docs.datadoghq.com/logs/processing/) is enabled to automatically parse NGINX logs. This is how the raw data in your logs is automatically extracted and processed into structured data for analysis and graphing. If you modify your NGINX log format (for example, to include request processing time), you’ll need to modify the pipeline to extract data from the new format. See the Datadog [pipeline documentation](https://docs.datadoghq.com/logs/processing/#integration-pipelines) to learn how to clone and modify the NGINX pipeline. [Alerting on NGINX metrics and logs](#alerting-on-nginx-metrics-and-logs) Once Datadog is capturing and visualizing your metrics and logs, you will likely want to set up some alerts to automatically notify you when there are problems. [Alerts based on your NGINX metrics](#alerts-based-on-your-nginx-metrics) You can create alerts based on the metric values you define as normal for your infrastructure or application. A threshold-based alert triggers when a metric exceeds a set value (such as when your dropped requests count is above zero). A change-based alert can notify you, for example, when requests per second drops by more than 30 percent. You can also create advanced alerts based on the automatic detection of [anomalies](https://www.datadoghq.com/blog/introducing-anomaly-detection-datadog/) (metrics that fall outside historical patterns) and [outliers](https://www.datadoghq.com/blog/introducing-outlier-detection-in-datadog/) (hosts performing differently from similar hosts in your environment). See our [documentation on metric monitors](https://docs.datadoghq.com/monitors/monitor_types/metric/) for guidance on creating these types of alerts. [Alerts based on your NGINX logs](#alerts-based-on-your-nginx-logs) You can build alerts around key data collected in your logs—HTTP response codes and request processing time—that aren’t available on the standard NGINX status page. [Alerting on HTTP response code](#alerting-on-http-response-code) NGINX logs requests that are successful (e.g., 2xx) and unsuccessful (e.g., 4xx and 5xx). Because of this, in Datadog you can [build an alert](https://app.datadoghq.com/monitors#create/log) that notifies you when your server-side error rate exceeds an acceptable limit. [Alerting on request processing time](#alerting-on-request-processing-time) As another example, if you extend the NGINX log format to include request processing time and modify your log pipeline to extract the additional data, you can create an alert to notify you of an unexpected uptick in slow requests. See [Datadog’s log monitor documentation](https://docs.datadoghq.com/monitors/monitor_types/log/) to get started creating alerts based on log data. [Improve your NGINX visibility](#improve-your-nginx-visibility) In this post we’ve walked you through integrating NGINX with Datadog to visualize your key metrics and logs, and to notify your team when your web infrastructure shows signs of trouble. If you’ve followed along using your own Datadog account, you should now have greatly improved visibility into what’s happening in your web environment, as well as the ability to create automated alerts tailored to your environment, your usage patterns, and the indicators that are most valuable to your organization. If you don’t yet have a Datadog account, you can sign up for [a free trial](#) and start monitoring your infrastructure, your applications, and your services today. *Source Markdown for this post is available on GitHub. Questions, corrections, additions, etc.? Please let us know.*
6,089
在 Debian 中安装 OpenQRM 云计算平台
http://www.unixmen.com/install-openqrm-cloud-computing-platform-debian/
2015-08-25T14:53:19
[ "openQRM", "云计算" ]
https://linux.cn/article-6089-1.html
### 简介 **openQRM**是一个基于 Web 的开源云计算和数据中心管理平台,可灵活地与企业数据中心的现存组件集成。 它支持下列虚拟技术: * KVM * XEN * Citrix XenServer * VMWare ESX * LXC * OpenVZ openQRM 中的混合云连接器支持 **Amazon AWS**, **Eucalyptus** 或 **OpenStack** 等一系列的私有或公有云提供商,以此来按需扩展你的基础设施。它也可以自动地进行资源调配、 虚拟化、 存储和配置管理,且保证高可用性。集成的计费系统的自服务云门户可使终端用户按需请求新的服务器和应用堆栈。 ![](/data/attachment/album/201508/25/145323o1j0k5jjalp1l5y5.jpg) openQRM 有两种不同风格的版本可获取: * 企业版 * 社区版 你可以在[这里](http://www.openqrm-enterprise.com/products/edition-comparison.html)查看这两个版本间的区别。 ### 特点 * 私有/混合的云计算平台 * 可管理物理或虚拟的服务器系统 * 集成了所有主流的开源或商业的存储技术 * 跨平台: Linux, Windows, OpenSolaris 和 BSD * 支持 KVM, XEN, Citrix XenServer, VMWare ESX(i), lxc, OpenVZ 和 VirtualBox * 支持使用额外的 Amazon AWS, Eucalyptus, Ubuntu UEC 等云资源来进行混合云设置 * 支持 P2V, P2P, V2P, V2V 迁移和高可用性 * 集成最好的开源管理工具 – 如 puppet, nagios/Icinga 或 collectd * 有超过 50 个插件来支持扩展功能并与你的基础设施集成 * 针对终端用户的自服务门户 * 集成了计费系统 ### 安装 在这里我们将在 Debian 7.5 上安装 openQRM。你的服务器必须至少满足以下要求: * 1 GB RAM * 100 GB Hdd(硬盘驱动器) * 可选: Bios 支持虚拟化(Intel CPUs 的 VT 或 AMD CPUs AMD-V) 首先,安装 `make` 软件包来编译 openQRM 源码包: ``` sudo apt-get update sudo apt-get upgrade sudo apt-get install make ``` 然后,逐次运行下面的命令来安装 openQRM。 从[这里](http://sourceforge.net/projects/openqrm/files/?source=navbar)下载最新的可用版本: ``` wget http://sourceforge.net/projects/openqrm/files/openQRM-Community-5.1/openqrm-community-5.1.tgz tar -xvzf openqrm-community-5.1.tgz cd openqrm-community-5.1/src/ sudo make sudo make install sudo make start ``` 安装期间,会要求你更新文件 `php.ini` ![~-openqrm-community-5.1-src_001](/data/attachment/album/201508/25/145327abmqb4ubwhbqy4zb.png) 输入 mysql root 用户密码。 ![~-openqrm-community-5.1-src_002](/data/attachment/album/201508/25/145328g7l9jwzr1ujq41wq.png) 再次输入密码: ![~-openqrm-community-5.1-src_003](/data/attachment/album/201508/25/145328skje6o6uv6yev107.png) 选择邮件服务器配置类型: ![~-openqrm-community-5.1-src_004](/data/attachment/album/201508/25/145329yzodhjj6jtrdhnrh.png) 假如你不确定该如何选择,可选择 `Local only`。在我们的这个示例中,我选择了 **Local only** 选项。 ![~-openqrm-community-5.1-src_005](/data/attachment/album/201508/25/145330whaaajozvoahrq88.png) 输入你的系统邮件名称,并最后输入 Nagios 管理员密码。 ![~-openqrm-community-5.1-src_007](/data/attachment/album/201508/25/145331x26w6gnuujubx633.png) 根据你的网络连接状态,上面的命令可能将花费很长的时间来下载所有运行 openQRM 所需的软件包,请耐心等待。 最后你将得到 openQRM 配置 URL 地址以及相关的用户名和密码。 ![~_002](/data/attachment/album/201508/25/145332umuumkmr5y1t1zt4.png) ### 配置 在安装完 openQRM 后,打开你的 Web 浏览器并转到 URL: **http://ip-address/openqrm** 例如,在我的示例中为 <http://192.168.1.100/openqrm> 。 默认的用户名和密码是: **openqrm/openqrm** 。 ![Mozilla Firefox_003](/data/attachment/album/201508/25/145333rddbcd5ppd40o5od.png) 选择一个网卡来给 openQRM 管理网络使用。 ![openQRM Server - Mozilla Firefox_004](/data/attachment/album/201508/25/145334pigvazbaonqavo5n.png) 选择一个数据库类型,在我们的示例中,我选择了 mysql。 ![openQRM Server - Mozilla Firefox_006](/data/attachment/album/201508/25/145334j4rfiqy5qddyz8od.png) 现在,配置数据库连接并初始化 openQRM, 在这里,我使用 **openQRM** 作为数据库名称, **root** 作为用户的身份,并将 debian 作为数据库的密码。 请小心,你应该输入先前在安装 openQRM 时创建的 mysql root 用户密码。 ![openQRM Server - Mozilla Firefox_012](/data/attachment/album/201508/25/145335y67ax1nh6a5bbba1.png) 祝贺你! openQRM 已经安装并配置好了。 ![openQRM Server - Mozilla Firefox_013](/data/attachment/album/201508/25/145336i1b3dbadcvvf1c1x.png) ### 更新 openQRM 在任何时候可以使用下面的命令来更新 openQRM: ``` cd openqrm/src/ make update ``` 到现在为止,我们做的只是在我们的 Debian 服务器中安装和配置 openQRM, 至于 创建、运行虚拟,管理存储,额外的系统集成和运行你自己的私有云等内容,我建议你阅读 [openQRM 管理员指南](http://www.openqrm-enterprise.com/fileadmin/Documents/Whitepaper/openQRM-Enterprise-Administrator-Guide-5.2.pdf)。 就是这些了,欢呼吧!周末快乐! --- via: <http://www.unixmen.com/install-openqrm-cloud-computing-platform-debian/> 作者:[SK](http://www.unixmen.com/author/sk/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null