id
int64 2.05k
16.6k
| title
stringlengths 5
75
| fromurl
stringlengths 19
185
| date
timestamp[s] | tags
sequencelengths 0
11
| permalink
stringlengths 20
37
| content
stringlengths 342
82.2k
| fromurl_status
int64 200
526
⌀ | status_msg
stringclasses 339
values | from_content
stringlengths 0
229k
⌀ |
---|---|---|---|---|---|---|---|---|---|
5,322 | 如何在Ubuntu/CentOS上安装Linux内核4.0 | http://linoxide.com/how-tos/install-linux-kernel-4-0-elrepo-source/ | 2015-04-22T10:08:00 | [
"内核",
"Linux"
] | /article-5322-1.html | 大家好,今天我们学习一下如何从Elrepo或者源代码来安装最新的Linux内核4.0。代号为‘Hurr durr I'm a sheep’的Linux内核4.0是目前为止最新的主干内核。它是稳定版3.19.4之后发布的内核。4月12日是所有的开源运动爱好者的大日子,Linux Torvalds宣布了Linux内核4.0的发布,它现在就已经可用了。由于包括了一些很棒的功能,例如无重启补丁(实时补丁),新的升级驱动,最新的硬件支持以及很多有趣的功能都有新的版本,它原本被期望是一次重要版本。但是实际上内核4.0并不认为是期望中的重要版本,Linus 表示期望4.1会是一个更重要的版本。实时补丁功能已经集成到了SUSE企业版Linux操作系统上。你可以在[发布公告](http://linux.cn/article-5259-1.html)上查看关于这次发布的更多详细内容。
![](/data/attachment/album/201504/21/231433qrnq7b7nzd36zi26.jpg)
>
> **警告**: 安装新的内核可能会导致你的系统不可用或不稳定。如果你仍然使用以下命令继续安装,请确保备份所有重要数据到外部硬盘。
>
>
>
在Ubuntu 15.04上安装Linux内核4.0
--------------------------
如果你正在使用Linux的发行版Ubuntu 15.04,你可以直接通过Ubuntu内核网站安装。在你的Ubuntu15.04上安装最新的Linux内核4.0,你需要在shell或终端中在root访问权限下运行以下命令。
### 在 64位 Ubuntu 15.04
```
$ wget http://kernel.ubuntu.com/~kernel-ppa/mainline/v4.0-vivid/linux-image-4.0.0-040000-generic_4.0.0-040000.201504121935_amd64.deb
$ wget http://kernel.ubuntu.com/~kernel-ppa/mainline/v4.0-vivid/linux-headers-4.0.0-040000-generic_4.0.0-040000.201504121935_amd64.deb
$ sudo dpkg -i linux-headers-4.0.0*.deb linux-image-4.0.0*.deb
```
### 在 32位 Ubuntu 15.04
```
$ wget http://kernel.ubuntu.com/~kernel-ppa/mainline/v4.0-vivid/linux-image-4.0.0-040000-generic_4.0.0-040000.201504121935_i386.deb
$ wget http://kernel.ubuntu.com/~kernel-ppa/mainline/v4.0-vivid/linux-headers-4.0.0-040000-generic_4.0.0-040000.201504121935_i386.deb
$ sudo dpkg -i linux-headers-4.0.0*.deb linux-image-4.0.0*.deb
```
在CentOS 7上安装Linux内核4.0
----------------------
我们可以用两种简单的方式在CentOS 7上安装Linux内核4.0。
1. 从Elrepo软件仓库安装
2. 从源代码编译安装
我们首先用ElRepo安装,这是最简单的方式:
### 使用 Elrepo 安装
#### **1. 下载和安装ELRepo**
我们首先下载ELRepo的GPG密钥并安装relrepo-release安装包。因为我们用的是CentOS 7,我们使用以下命令安装elrepo-release-7.0-2.el7.elrepo.noarch.rpm。
注: 如果你启用了secure boot,请查看[这个网页获取更多信息](http://elrepo.org/tiki/SecureBootKey)。
```
# rpm --import https://www.elrepo.org/RPM-GPG-KEY-elrepo.org
# rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-2.el7.elrepo.noarch.rpm
```
![添加 Elrepo 源](/data/attachment/album/201504/21/231451fj2jslzazb5laazi.png)
#### **2. 升级Linux内核到4.0版本**
现在,我们准备从ELRepo软件仓库安装最新的稳定版内核4.0。安装它我们需要在CentOS 7的shell或者终端中输入以下命令。
```
# yum --enablerepo=elrepo-kernel install kernel-ml
```
![从ELRepo安装Linux内核4.0](/data/attachment/album/201504/21/231452ndm6iindvi4vk8iv.png)
上面的命令会自动安装为CentOS 7构建的Linux内核4.0。
现在,下面的是另一种方式,通过编译源代码安装最新的内核4.0。
### 从源代码编译安装
#### **1. 安装依赖软件**
首先我们需要为编译linux内核安装依赖的软件。要完成这些,我们需要在一个终端或者shell中运行以下命令。
```
# yum groupinstall "Development Tools"
# yum install gcc ncurses ncurses-devel
```
![安装内核依赖](/data/attachment/album/201504/21/231452hdy4clqqzyy7snj8.png)
然后,我们会升级我们的整个系统。
```
# yum update
```
#### **2. 下载源代码**
现在我们通过wget命令从Linux内核的官方仓库中下载最新发布的linux内核4.0的源代码。你也可以使用你的浏览器直接从[kernel.org](http://kernel.org/)网站下载内核。
```
# cd /tmp/
# wget https://www.kernel.org/pub/linux/kernel/v4.x/linux-4.0.tar.xz
```
![下载内核源码](/data/attachment/album/201504/21/231453bxfkhkl2fxqtottt.png)
#### **3. 解压tar压缩包**
文件下载好后我们在/usr/src/文件夹下用以下命令解压。
```
# tar -xf linux-4.0.tar.xz -C /usr/src/
# cd /usr/src/linux-4.0/
```
![解压内核tar压缩包](/data/attachment/album/201504/21/231454dcs25ues5gm4zcsv.png)
#### **4. 配置**
配置Linux内核有两种选择的。我们可以创建一个新的自定义配置文件或者使用已有的配置文件来构建和安装Linux内核。这都取决于你自己的需要。
##### **配置新的内核**
现在我们在shell或终端中运行make menuconfig命令来配置Linux内核。我们执行以下命令后会显示一个包含所有菜单的弹出窗口。在这里我们可以选择我们新的内核配置。如果你不熟悉这些菜单,那就敲击ESC键两次退出。
```
# make menuconfig
```
![配置新内核](/data/attachment/album/201504/21/231456zag2m4xg0la0yggq.png)
##### **已有的配置**
如果你想用已有的配置文件配置你最新的内核,那就输入下面的命令。如果你对配置有任何调整,你可以选择Y或者N,或者仅仅是按Enter键继续。
```
# make oldconfig
```
#### 5. 编译Linux内核
下一步,我们会执行make命令来编译内核4.0。取决于你的系统配置,编译至少需要20-30分钟。
注:如果编译内核的时候出现`bc command not found`的错误,你可以用**yum install bc**命令安装bc修复这个错误。
```
# make
```
![Make 内核](/data/attachment/album/201504/21/231456p19gdg9w1zr8g8mo.png)
#### 6. 安装Linux内核4.0
编译完成后,我们终于要在你的Linux系统上安装**内核**了。下面的命令会在/boot目录下创建文件并且在Grub 菜单中新建一个内核条目。
```
# make modules_install install
```
#### 7. 验证内核
安装完最新的内核4.0后我们希望能验证它。做这些我们只需要在终端中输入以下命令。如果所有都进展顺利,我们会看到内核版本,例如4.0出现在输出列表中。
```
# uname -r
```
结论
--
好了,我们成功地在我们的CentOS 7操作系统上安装了最新的Linux内核版本4.0。通常并不需要升级linux内核,因为和之前版本运行良好的硬件可能并不适合新的版本。我们要确保它包括能使你的硬件正常工作的功能和配件。但大部分情况下,新的稳定版本内核能使你的硬件性能更好。因此,如果你有任何问题,评论,反馈,请在下面的评论框中注明,让我们知道需要增加或者删除什么问题。多谢!享受最新的稳定版Linux内核4.0吧 :-)
---
via: <http://linoxide.com/how-tos/install-linux-kernel-4-0-elrepo-source/>
作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /how-tos/install-linux-kernel-4-0-elrepo-source/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c6770>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,328 | 系统管理员的容器时代之殇 | http://www.vitavonni.de/blog/201503/2015031201-the-sad-state-of-sysadmin-in-the-age-of-containers.html | 2015-04-24T11:07:27 | [
"系统管理员",
"Docker",
"容器"
] | https://linux.cn/article-5328-1.html | 系统管理现在处于一个癫狂的时代,一片混乱。
我并不是抱怨老式系统管理员们,他们还是知道如何让系统工作起来,知道怎么更新系统和如何升级扩容。
这篇吐槽是关于容器、预构建虚拟机镜像的,它们真是令人难以置信的混乱,它们的脑子里面就根本没有“可信”和“升级”的概念。
![](/data/attachment/album/201504/24/110730gbipl8bl0ke88ejc.jpg)
(题图来自 crtdot.com)
举个 Hadoop 的例子,**似乎就没有人知道如何从头构建一份 Hadoop**,它那令人头昏眼花的依赖关系、版本需求和构建工具让人云山雾罩。所有这些“神奇”的工具仍然是通过传统的 make 命令构建的,每个工具都是它自己带的,彼此不兼容,你得按照没有复用意义的“当日路线图”来构建。因为没有人能从头构建,所以现在**大家都从一些不定是哪个的网站去下载已经编译好的二进制**,基本上**没有任何认证和签名**。
这是 NSA 和病毒们的天堂啊!**不需要搞什么破解和漏洞挖掘**,只需要弄个“APP”、虚拟机或 Docker 镜像,人们就会把这些恶意代码弄到他们的网络里面去。
[Debian 的 Hadoop 维基页](https://wiki.debian.org/Hadoop)就是一个典型的例子,基本上,从 2010 年开始人们就已经放弃了从源代码构建一个 Debian 上可用的 Hadoop 包了。
要构建 Apache Bigtop,你首先需要安装 puppet3,然后用它从互联网上下载一些魔法般数据。以 sudo 的权限启动 puppet ,顺便给 NSA 开个后门(举个例子,它会下载和安装一个过期的预编译的 JDK——因为它认为你太笨了,不会安装 Java),然后期待它能顺利构建而不是抛出200行的毫无用处的报错跟踪。
我没有开玩笑,它会试着执行像下面这样的脚本:
```
/bin/bash -c "wget http://www.scala-lang.org/files/archive/scala-2.10.3.deb ; dpkg -x ./scala-2.10.3.deb /"
```
注意,甚至这并没有正常的安装这个包,而只是将其解压缩到你的根目录下!下载时也没有检查任何签名、没有通过 SSL(脚本来自 [Bigtop 的 puppet 清单](https://github.com/apache/bigtop/blob/master/bigtop_toolchain/manifests/scala.pp))。
即便你的构建正常工作了,它也会通过 Maven 下载来自互联网的没有签名的二进制代码,并用这些来构建。
不再写一些干净的、模块化的架构,所有这些现在都牵扯在混乱的依赖里面。我上次看到, hadoop 的类路径已经有 100 多个 jar 了,现在?我打赌它肯定有 150 个了。那些 HBaseGiraphFlumeCrunchPigHiveMahoutSolrSparkElasticsearch 以及 Apache 家族的其它东东都是这样混乱。
所谓**软件栈**,现在的意思是“我也不知道我实际上用的是啥”。
**Maven** 、**ivy** 和 **sbt** 这些即用的工具其实就是让你的系统从互联网下载那些无签名的二进制数据并运行在你的计算机上。
再加上容器,哦天哪,更乱了。
是否想过给容器进行**安全更新**?
基本上,Docker 的思路就是下载一个未签名的二进制并运行它,然后期望它不要将任何后门放到你的公司网络里面去。
这就像是我在90年代时在 Windows 上下载的共享软件一样。什么时候会出现第一个带有 Ask 工具条的 Docker 镜像呢?第一个通过 Docker 镜像传播的互联网蠕虫呢?
回到前些年,Linux 发行版努力着提供一个安全的操作系统,带有签名的软件包、可信的网络、甚至还能完全的重新构建。
而现在呢?什么东西都已经 Windows 化了,到处是疯狂的“App”,你下载,你运行,根本不管是否安全,是否能升级到下个版本。因为你就是“过把瘾就死”!
**更新**:其实在 Docker 之前就有这样的作法了,Docker 只是一个新的 'curl | sudo bash' 而已。是的,这就是主流的、在你的数据中心下载并运行一个不可信软件的方法。这太糟糕了,真的。之前,系统管理员还在努力的防御安全漏洞,现在,他们自称“devops”了,然后很 happy 地把这些东西弄到他们的网络里面了!
| 301 | Moved Permanently | null |
5,329 | 只有几百个字节大小的国际象棋程序 | http://www.linuxlinks.com/article/20150222033906262/ChessBytes.html | 2015-04-25T18:40:10 | [
"游戏",
"国际象棋"
] | https://linux.cn/article-5329-1.html | 当我在这里提到了 ZX81 电脑时,我已经暴露了我的年龄。ZX81 是一个由英国开发者(Sincilair 研究所)生产的家庭电脑,它拥有"高达" 1KB 的内存!上面的 1KB 并不是打印错误,这个家庭电脑确实只配置有 1KB 的板载内存。但这个内存大小上的限制并没有阻止爱好者制作种类繁多的软件。事实上,这个机器引发了一代编程奇才的出现,这让他们掌握了让程序在该机上运行起来的技能。这个机器可以通过一个 16 KB 的内存卡来进行升级,这就提供了更多的编程可能。但未经扩展的 1KB 机器仍然激励着编程者们发布卓越的软件。
![1K ZX Chess ](/data/attachment/album/201504/25/184013j9unqq7xqqzu9zpo.jpg)
我最喜爱的 ZX81 游戏有: 模拟飞行(Flight Simulation), 3D 版怪物迷宫(3D Monster Maze), 小蜜蜂(Galaxians), 以及最重要的 1K ZX Chess。 只有最后一个程序是为未扩展版的 ZX81 电脑设计的。事实上,David Horne 开发的 1K ZX Chess 只使用了仅仅 672 字节的 RAM(LCTT 译注:如果读者有兴趣,可以看看[这里](http://users.ox.ac.uk/%7Euzdm0006/scans/1kchess/)对该程序的代码及解释)。尽管如此,该游戏尽力去实现大多数的国际象棋规则,并提供了一个计算机虚拟对手。虽然一些重要的规则被忽略了(如:王车易位,兵的升变,和吃过路兵) (LCTT 译注:参考了[这里](http://zh.wikibooks.org/zh/%E5%9B%BD%E9%99%85%E8%B1%A1%E6%A3%8B/%E8%A7%84%E5%88%99)和[这里](http://en.wikipedia.org/wiki/Rules_of_chess)),但能够和人工智能相对抗,这仍然令人惊讶。这个游戏占据了我逝去的青春里的相当一部分。
1K ZX Chess 保持了在所有计算机上国际象棋的最小实现的地位长达 33 年之久,直到今年由 BootChess 打破了该记录,紧接着由 Toledo AtomChess 打破。这三个程序都没有实现所有的国际象棋规则,所以为了完整性,我介绍了我最喜爱的那些实现了所有国际象棋规则的极小的国际象棋。
Linux 有着一系列极其强大的国际象棋引擎,如 Stockfish, Critter, Togo II, Crafty, GNU Chess 和 Komodo 。 在这篇文章精选的国际象棋程序虽敌不过这些好的国际象棋程序,但它们展示了使用微不足道的代码库究竟可以实现多少东西。
---
### Toledo Atomchess
![](/data/attachment/album/201504/25/184015lrqghr0rz0h1th33.png)
你可能已经看到了大量有关 BootChess 新闻报道,这个只用 487 字节写就的国际象棋程序,一举打破了先前最小的国际象棋程序 1K ZX Chess 的记录。所以,Óscar Toledo Gutiérrez 挽起袖子自己编写了一个更加紧凑的国际象棋游戏。Toledo Atomchess 是仅有 481 字节的 x86 汇编代码,都能放到引导扇区里。 在难以置信的代码大小下,这个引擎实现了一个可玩的国际象棋游戏。
特点包括:
* 基本的棋子移动
* 用 ASCII 文本表现的棋盘
* 以代数形式来输入移动(注:如 D2D4)
* 3 层的搜索深度
显然,为了将这个国际象棋程序压缩到 481 字节中,作者必须做出某些牺牲,这些局限包括:
* 没有兵的升变
* 没有王车易位
* 没有吃过路兵
* 没有移动确认
该作者也使用 C,JavaScript 和 Java 来写这个国际象棋程序,每种实现都非常小。
* 网站: [nanochess.org/chess6.html](http://nanochess.org/chess6.html)
* 开发者: Óscar Toledo Gutiérrez
* 协议: 非商业用途可免费使用
* 版本号: -
---
### BootChess
![](/data/attachment/album/201504/25/184016c922qucqqjr7cbrj.png)
BootChess 是一个国际象棋的极其小巧的计算机实现。这个程序被塞进到仅仅 487 字节里,并可运行在 Windows, Mac OS X 和 Linux 等操作系统。BootChess 的棋盘和棋子单独用文本表示,其中 P 代表兵, Q 用来代表王后,以及“点”代表空白格子。
特点包括:
* 象棋棋盘和用户输入的形象的文本表示
* 引导扇区大小(512 字节)的可玩的象棋游戏
* 只需 x86 bios 硬件引导程序(没有软件依赖)
* 所有主要的正规移动包括双兵开局
* 兵升变为王后(与 1k ZX Chess 相反)
* 名为 taxiMax > minMax half-ply 的 CPU 人工智能
* 硬编码的西班牙白子开局
同样,它也存在一些重要的限制。这些遗漏的功能包括:
* 兵的低升变(升变为非王后的棋子)
* 吃过路兵
* 没有王车易位
* 3 次位置重复和局规则(注:下一步之前,同样的移动出现了两次;可以参考[这里](http://www.netplaces.com/chess-basics/ending-the-game/three-position-repetition.htm))
* 50 步移动和局规则(注:在连续的50个回合内,双方既没有棋子被吃掉,也没有兵被移动过,则和局;可以参考[这里](http://www.chessvariants.org/d.chess/chess.html))
* 没有开放式和封闭式布局
* 一个或多个 minMAX/negaMax 全层人工智能
* 网站: [www.pouet.net/prod.php?which=64962](http://www.pouet.net/prod.php?which=64962)
* 开发者: Olivier "Baudsurfer/RSi" Poudade
* 协议: WTFPL v2
* 版本号: .02
---
### Micro-Max
![](/data/attachment/album/201504/25/184017vb55on5x5nbbqjbb.png)
Micro-Max 是一个用 133 行 C 语言写就的象棋源程序。
作者实现了一个 hash 变换表,该引擎检查输入移动的合法性,以及支持 FIDE(注: World Chess Federation 缩写,参见其[官网](https://www.fide.com/)) 的全部规则,除了低升变。
特点包括:
* 递归的 negamax 搜索
* 反夺的静态搜索
* 反夺规则的扩展
* 迭代深化
* 最佳移动优先的 `排序`
* 存储分数和最佳移动的 Hash 表
* 完整的 FIDE 规则(除了低位升变)和移动合法性检查
还有一个 1433个字符的较大版本,但允许你使用完整的 FIDE 规则的低升变。
* 网站: [home.hccnet.nl/h.g.muller/max-src2.html](http://home.hccnet.nl/h.g.muller/max-src2.html)
* 开发者: Harm Geert Muller
* 协议: The MIT License
* 版本号: 3.2
---
via: <http://www.linuxlinks.com/article/20150222033906262/ChessBytes.html>
作者:Frazer Kline 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,330 | Mydumper - MySQL数据库备份工具 | http://www.ubuntugeek.com/mydumper-mysql-database-backup-tool.html | 2015-04-25T19:59:00 | [
"MySQL",
"Mydumper"
] | https://linux.cn/article-5330-1.html | Mydumper 是 MySQL 数据库服务器备份工具,它比 MySQL 自带的 mysqldump 快很多。它还有在转储的同时获取远程服务器二进制日志文件的能力。
![](/data/attachment/album/201504/25/200000idm2x42b2nd2jfnn.png)
### Mydumper 的优势
* 并行能力 (因此有高速度) 和性能 (高效的代码避免了耗费 CPU 处理能力的字符集转换过程)
* 更容易管理输出 (每个表都对应独立的文件,转储元数据等,便于查看/解析数据)
* 一致性 :跨线程维护快照, 提供精确的主从日志定位等。
* 可管理性 : 支持用 PCRE 来包含/排除指定的数据库和表(LCTT译注:PCRE,Perl Compatible Regular Expression,Perl兼容正则表达式)
### 在Ubuntu上安装 mydumper
打开终端运行以下命令
```
sudo apt-get install mydumper
```
### 使用 Mydumper
#### 语法
```
mydumper [options]
```
应用程序选项:
* -B, --database 要转储的数据库
* -T, --tables-list 逗号分隔的转储表列表(不会被正则表达式排除)
* -o, --outputdir 保存输出文件的目录
* -s, --statement-size 插入语句的字节大小, 默认是1000000个字节
* -r, --rows 把表按行数切块
* -c, --compress 压缩输出文件
* -e, --build-empty-files 空表也输出文件
* -x, --regex 匹配‘db.table’的正则表达式
* -i, --ignore-engines 以逗号分隔的被忽略的存储引擎列表
* -m, --no-schemas 不转储表架构
* -k, --no-locks 不执行临时共享读锁。警告: 这会导致备份的不一致性
* -l, --long-query-guard 设置长查询的计时器秒数,默认是60秒
* --kill-long-queries 杀死长查询 (而不是退出程序)
* -b, --binlogs 获取二进制日志文件快照并转储数据
* -D, --daemon 开启守护进程模式
* -I, --snapshot-interval 每个转储快照之间的间隔时间(分钟), 需要开启 --daemon, 默认是60分钟
* -L, --logfile 日志文件的名字,默认是stdout
* -h, --host 要连接的主机
* -u, --user 有转储权限的用户名
* -p, --password 用户密码
* -P, --port 连接的TCP/IP端口
* -S, --socket 用于连接的Unix套接字文件
* -t, --threads 使用的线程数,默认是4
* -C, --compress-protocol 在MySQL连接上使用压缩
* -V, --version 查看程序版本号
* -v, --verbose 输出信息的等级, 0 = silent, 1 = errors, 2 = warnings, 3 = info, 默认是2
#### Mydumper 例子
```
mydumper \
--database=$DB_NAME \
--host=$DB_HOST \
--user=$DB_USER \
--password=$DB_PASS \
--outputdir=$DB_DUMP \
--rows=500000 \
--compress \
--build-empty-files \
--threads=2 \
--compress-protocol
```
Mydumper 输出数据的说明
Mydumper 不直接指定输出的文件,而是输出到文件夹的文件中。--outputdir 选项指定要使用的目录名称。
输出分为两部分
**表结构**
对数据库中的每个表,创建一个包含 CREATE TABLE 语句的文件。文件命名为:
dbname.tablename-schema.sql.gz
**数据**
每个表名跟着按 --rows 参数所切块的数量, 创建文件名字为:
dbname.tablename.0000n.sql.gz
"n"从0开始.
你可以使用Myloader恢复这些备份
```
myloader \
--database=$DB_NAME \
--directory=$DB_DUMP \
--queries-per-transaction=50000 \
--threads=10 \
--compress-protocol \
--verbose=3
```
---
via: <http://www.ubuntugeek.com/mydumper-mysql-database-backup-tool.html>
作者:[ruchi](http://www.ubuntugeek.com/author/ubuntufix) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 200 | OK | # Mydumper – Mysql Database Backup tool
**Sponsored Link**
**Mydumper advantages**
o Parallelism (hence, speed) and performance (avoids expensive character set conversion routines, efficient code overall)
o Easier to manage output (separate files for tables, dump metadata,etc, easy to view/parse data)
o Consistency -- maintains snapshot across all threads, provides accurate master and slave log positions, etc
o Manageability -- supports PCRE for specifying database and tables inclusions and exclusions
**Install mydumper on ubuntu**
Open the terminal and run the following command
sudo apt-get install mydumper
**Using Mydumper**
**Syntax**
mydumper [options]
Application Options:
-B, --database Database to dump
-T, --tables-list Comma delimited table list to dump (does not exclude regex option)
-o, --outputdir Directory to output files to
-s, --statement-size Attempted size of INSERT statement in bytes, default 1000000
-r, --rows Try to split tables into chunks of this many rows
-c, --compress Compress output files
-e, --build-empty-files Build dump files even if no data available from table
-x, --regex Regular expression for ‘db.table' matching
-i, --ignore-engines Comma delimited list of storage engines to ignore
-m, --no-schemas Do not dump table schemas with the data
-k, --no-locks Do not execute the temporary shared read lock. WARNING: This will cause inconsistent backups
-l, --long-query-guard Set long query timer in seconds, default 60
--kill-long-queries Kill long running queries (instead of aborting)
-b, --binlogs Get a snapshot of the binary logs as well as dump data
-D, --daemon Enable daemon mode
-I, --snapshot-interval Interval between each dump snapshot (in minutes), requires --daemon, default 60
-L, --logfile Log file name to use, by default stdout is used
-h, --host The host to connect to
-u, --user Username with privileges to run the dump
-p, --password User password
-P, --port TCP/IP port to connect to
-S, --socket UNIX domain socket file to use for connection
-t, --threads Number of threads to use, default 4
-C, --compress-protocol Use compression on the MySQL connection
-V, --version Show the program version and exit
-v, --verbose Verbosity of output, 0 = silent, 1 = errors, 2 = warnings, 3 = info, default 2
**Mydumper Example**
mydumper \
--database=$DB_NAME \
--host=$DB_HOST \
--user=$DB_USER \
--password=$DB_PASS \
--outputdir=$DB_DUMP \
--rows=500000 \
--compress \
--build-empty-files \
--threads=2 \
--compress-protocol
Description of Mydumper's output data
Mydumper does not output to files, but rather to files in a directory. The --outputdir option specifies the name of the directory to use.
The output is two parts
Schema
For each table in the database, a file containing the CREATE TABLE statement will be created. It will be named:
dbname.tablename-schema.sql.gz
Data
For each table with number of rows above the --rows parameter, you will have a file called:
dbname.tablename.0000n.sql.gz
Where "n" starts with 0 up to the number of.
If you want to restore these backup you can use Myloader
myloader \
--database=$DB_NAME \
--directory=$DB_DUMP \
--queries-per-transaction=50000 \
--threads=10 \
--compress-protocol \
--verbose=3
mydumper –daemon
not running as daemon, it just creates two folders 0 and 1 with databases dups inside, but only once, it does not repeats as it should as per instruction:
mydumper –daemon –snapshot-interval=30
It should run every 30minutes, but it doesnt. |
5,331 | GitHub 上最流行的编程语言 | https://www.loggly.com/blog/the-most-popular-programming-languages-in-to-github-since-2012/ | 2015-04-25T21:56:00 | [
"GitHub",
"编程语言"
] | https://linux.cn/article-5331-1.html | ![](/data/attachment/album/201504/25/220443zzg0df20mm20c0yl.png)
编程语言不仅仅是开发者用来创建程序或表达算法的工具,它们也是对创造力进行编码和解码的仪器。通过观察编程语言的历史,我们在追求为解决问题找到一个更好的方法,促进协作,构建好的产品以及重用他人的工作上得到一个独特的观点。
我们有大约 70% 的客户向我们的服务发送应用日志,因此我们能追踪哪种语言是最流行的,以及哪种语言获得了开发人员的关注。
基于从2012年以来的历史的[GitHub 归档](https://www.githubarchive.org/)和[GitHut](http://githut.info/)数据,我们分析了GitHub上大部分开发者的动作并绘制成你下面看到的信息图表。我们主要关注:
* 活跃库的数量,这是反应了人们正在研究的项目的有用度量。
* 每种语言总的推送数量以及每个库的平均推送次数。这些指标是由某种语言编写的项目的创新效率的指示器。
* 每个库新的fork数和发现的问题数目,这也显示了活跃度和创新性。
* 每个库新的观察者,这是开发人员兴趣的指示器。
查看信息图表并告诉我们你的想法!在你的同龄人中是怎么选择你使用的语言的?
![](/data/attachment/album/201504/25/221128wtwzhqrfqyriw92z.gif)
---
via: <https://www.loggly.com/blog/the-most-popular-programming-languages-in-to-github-since-2012/>
作者:[Justin Mares](https://www.loggly.com/blog/author/guest/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 200 | OK | # Most popular programming languages in GitHub
Programming languages are not simply the tools that developers use to create programs or express algorithms. They’re also instruments to code and decode creativity. By observing the history of programming languages, we gain a unique perspective on our quest to find better ways to solve problems, facilitate collaboration, build great products, and reuse the efforts of others.
About 70% of our customers send application logs to our service, so Loggly is interested in tracking which are the most popular programming languages and which ones are gaining traction among developers.
Based on the historical [GitHub Archive](https://www.githubarchive.org/) and [GitHut](https://githut.info/) data starting in 2012, we analyzed the most common developer actions within GitHub and turned it into the infographic you see below. We looked at:
- The number of active repositories, a useful proxy for the projects that people are working on right now.
- The total number of pushes per language as well as the average number of pushes per repository. These metrics are indicators of the rate of innovation occurring with projects being written in a particular language.
- New forks and open issues per repository, which also show active use and innovation.
- New watchers per repository, an indicator of developer interest.
** Check out the infographic and let us know what you think! How does your programming language of choice fare among your peers? **
*Click on image to view at full size.*
![Most Popular Languages According to GitHub Since 2012 loggly infographic](https://www.loggly.com/wp-content/uploads/2015/04/Most-Popular-Languages-According-to-GitHub-Since-2012-loggly-infographic_v3.png)
![Most Popular Languages According to GitHub Since 2012 loggly infographic](https://www.loggly.com/wp-content/uploads/2015/04/Most-Popular-Languages-According-to-GitHub-Since-2012-loggly-infographic_v3.png)
### Share this Image On Your Site
*The Loggly and SolarWinds trademarks, service marks, and logos are the exclusive property of SolarWinds Worldwide, LLC or its affiliates. All other trademarks are the property of their respective owners.*
![Justin Mares](https://www.loggly.com/wp-content/uploads/2015/03/justin-mares-220x220.png)
**Justin Mares** |
5,332 | 怎样用 WPScan,Nmap 和 Nikto 扫描和检查一个 WordPress 站点的安全性 | http://www.unixmen.com/scan-check-wordpress-website-security-using-wpscan-nmap-nikto/ | 2015-04-26T07:52:00 | [
"WordPress",
"网站安全",
"wpscan",
"nmap"
] | https://linux.cn/article-5332-1.html | ### 介绍
数百万个网站用着 WordPress ,这当然是有原因的。WordPress 是众多内容管理系统中对开发者最友好的,本质上说你可以用它做任何事情。不幸的是,每天都有些吓人的报告说某个主要的网站被黑了,或者某个重要的数据库被泄露了之类的,吓得人一愣一愣的。
如果你还没有安装 WordPress ,可以看下下面的文章。
在基于 Debian 的系统上:
* [如何在 Ubuntu 上安装 WordPress](http://www.unixmen.com/install-wordpress-ubuntu-14-10/)
在基于 RPM 的系统上:
* [如何在 CentOS 上安装 WordPress](http://www.unixmen.com/install-configure-wordpress-4-0-benny-centos-7/)
我之前的文章 [如何安全加固 WordPress 站点](http://www.unixmen.com/secure-wordpress-website/) 里面列出的**备忘录**为读者维护 WordPress 的安全提供了一点帮助。
在这篇文章里面,我将介绍 **wpscan** 的安装过程,以及怎样使用 wpscan 来定位那些已知的会让你的站点变得易受攻击的插件和主题。还有怎样安装和使用一款免费的网络探索和攻击的安全扫描软件 **nmap** 。最后展示的是使用 **nikto** 的步骤。
![](/data/attachment/album/201504/25/225948j6druzvrwmu6swwc.jpg)
(题图来自:codersmount.com)
### 用 WPScan 测试 WordPress 中易受攻击的插件和主题
**WPScan** 是一个 WordPress 黑盒安全扫描软件,用 Ruby 写成,它是专门用来寻找已知的 WordPress 的弱点的。它为安全专家和 WordPress 管理员提供了一条评估他们的 WordPress 站点的途径。它的基于开源代码,在 GPLv3 下发行。
#### 下载和安装 WPScan
在我们开始安装之前,很重要的一点是要注意 wpscan 不能在 Windows 下工作,所以你需要使用一台 Linux 或者 OS X 的机器来完成下面的事情。如果你只有 Windows 的系统,拿你可以下载一个 Virtualbox 然后在虚拟机里面安装任何你喜欢的 Linux 发行版本。
WPScan 的源代码放在 Github 上,所以需要先安装 git(LCTT 译注:其实你也可以直接从 Github 上下载打包的源代码,而不必非得装 git )。
```
sudo apt-get install git
```
git 装好了,我们就要安装 wpscan 的依赖包了。
```
sudo apt-get install libcurl4-gnutls-dev libopenssl-ruby libxml2 libxml2-dev libxslt1-dev ruby-dev ruby1.9.3
```
把 wpscan 从 github 上 clone 下来。
```
git clone https://github.com/wpscanteam/wpscan.git
```
现在我们可以进入这个新建立的 wpscan 目录,通过 bundler 安装必要的 ruby 包。
```
cd wpscan
sudo gem install bundler && bundle install --without test development
```
现在 wpscan 装好了,我们就可以用它来搜索我们 WordPress 站点潜在的易受攻击的文件。wpcan 最重要的方面是它能列出不仅是插件和主题,也能列出用户和缩略图的功能。WPScan 也可以用来暴力破解 WordPress —— 但这不是本文要讨论的内容。
#### 更新 WPScan
```
ruby wpscan.rb --update
```
#### 列举插件
要列出所有插件,只需要加上 “--enumerate p” 参数,就像这样:
```
ruby wpscan.rb --url http(s)://www.yoursiteurl.com --enumerate p
```
或者仅仅列出易受攻击的插件:
```
ruby wpscan.rb --url http(s)://www.yoursiteurl.com --enumerate vp
```
下面是一些例子:
```
| Name: ukiscet
| Location: http://********.com/wp-content/plugins/akismet/
| Name: audio-player
| Location: http://********.com/wp-content/plugins/audio-player/
|
| * Title: Audio Player - player.swf playerID Parameter XSS
| * Reference: http://seclists.org/bugtraq/2013/Feb/35
| * Reference: http://secunia.com/advisories/52083
| * Reference: http://osvdb.org/89963
| * Fixed in: 2.0.4.6
| Name: bbpress - v2.3.2
| Location: http://********.com/wp-content/plugins/bbpress/
| Readme: http://********.com/wp-content/plugins/bbpress/readme.txt
|
| * Title: BBPress - Multiple Script Malformed Input Path Disclosure
| * Reference: http://xforce.iss.net/xforce/xfdb/78244
| * Reference: http://packetstormsecurity.com/files/116123/
| * Reference: http://osvdb.org/86399
| * Reference: http://www.exploit-db.com/exploits/22396/
|
| * Title: BBPress - forum.php page Parameter SQL Injection
| * Reference: http://xforce.iss.net/xforce/xfdb/78244
| * Reference: http://packetstormsecurity.com/files/116123/
| * Reference: http://osvdb.org/86400
| * Reference: http://www.exploit-db.com/exploits/22396/
| Name: contact
| Location: http://********.com/wp-content/plugins/contact/
```
#### 列举主题
列举主题和列举插件差不多,只要用"--enumerate t"就可以了。
```
ruby wpscan.rb --url http(s)://www.host-name.com --enumerate t
```
或者只列出易受攻击的主题:
```
ruby wpscan.rb --url http(s)://www.host-name.com --enumerate vt
```
例子的输出:
```
| Name: path
| Location: http://********.com/wp-content/themes/path/
| Style URL: http://********.com/wp-content/themes/path/style.css
| Description:
| Name: pub
| Location: http://********.com/wp-content/themes/pub/
| Style URL: http://********.com/wp-content/themes/pub/style.css
| Description:
| Name: rockstar
| Location: http://********.com/wp-content/themes/rockstar/
| Style URL: http://********.com/wp-content/themes/rockstar/style.css
| Description:
|
| * Title: WooThemes WooFramework Remote Unauthenticated Shortcode Execution
| * Reference: https://gist.github.com/2523147
| Name: twentyten
| Location: http://********.com/wp-content/themes/twentyten/
| Style URL: http://********.com/wp-content/themes/twentyten/style.css
| Description:
```
#### 列举用户
WPscan 也可以用来列举某个 WordPress 站点的用户和有效的登录记录。攻击者常常这么做——为了获得一个用户清单,好进行暴力破解。
```
ruby wpscan.rb --url http(s)://www.host-name.com --enumerate u
```
#### 列举 Timthumb 文件
关于 WPscan ,我要说的最后一个功能是列举 timthub (缩略图)相关的文件。近年来,timthumb 已经成为攻击者眼里的一个常见目标,因为无数的漏洞被找出来并发到论坛上、邮件列表等等地方。用下面的命令可以通过 wpscan 找出易受攻击的 timthub 文件:
```
ruby wpscan.rb --url http(s)://www.host-name.com --enumerate tt
```
### 用 Nmap 扫描你 VPS 的开放端口
**Nmap** 是一个开源的用于网络探索和安全审查方面的工具。它可以迅速扫描巨大的网络,也可一单机使用。Nmap 用原始 IP 数据包通过不同寻常的方法判断网络里那些主机是正在工作的,那些主机上都提供了什么服务(应用名称和版本),是什么操作系统(以及版本),用的什么类型的防火墙,以及很多其他特征。
#### 在 Debian 和 Ubuntu 上下载和安装 nmap
要在基于 Debian 和 Ubuntu 的操作系统上安装 nmap ,运行下面的命令:
```
sudo apt-get install nmap
```
**输出样例**
```
Reading package lists... Done
Building dependency tree
Reading state information... Done
The following NEW packages will be installed:
nmap
0 upgraded, 1 newly installed, 0 to remove and 2 not upgraded.
Need to get 1,643 kB of archives.
After this operation, 6,913 kB of additional disk space will be used.
Get:1 http://mirrors.service.networklayer.com/ubuntu/ precise/main nmap amd64 5.21-1.1ubuntu1 [1,643 kB]
Fetched 1,643 kB in 0s (16.4 MB/s)
Selecting previously unselected package nmap.
(Reading database ... 56834 files and directories currently installed.)
Unpacking nmap (from .../nmap_5.21-1.1ubuntu1_amd64.deb) ...
Processing triggers for man-db ...
Setting up nmap (5.21-1.1ubuntu1) ...
```
#### 举个例子
输出 nmap 的版本:
```
nmap -V
```
或者
```
nmap --version
```
**输出样例**
```
Nmap version 5.21 ( http://nmap.org )
```
#### 在 Centos 上下载和安装 nmap
要在基于 RHEL 的 Linux 上面安装 nmap ,输入下面的命令:
```
yum install nmap
```
**输出样例**
```
Loaded plugins: protectbase, rhnplugin, security
0 packages excluded due to repository protections
Setting up Install Process
Resolving Dependencies
--> Running transaction check
---> Package nmap.x86_64 2:5.51-2.el6 will be installed
--> Finished Dependency Resolution
Dependencies Resolved
================================================================================
Package Arch Version Repository Size
================================================================================
Installing:
nmap x86_64 2:5.51-2.el6 rhel-x86_64-server-6 2.8 M
Transaction Summary
================================================================================
Install 1 Package(s)
Total download size: 2.8 M
Installed size: 0
Is this ok [y/N]: y
Downloading Packages:
nmap-5.51-2.el6.x86_64.rpm | 2.8 MB 00:00
Running rpm_check_debug
Running Transaction Test
Transaction Test Succeeded
Running Transaction
Installing : 2:nmap-5.51-2.el6.x86_64 1/1
Verifying : 2:nmap-5.51-2.el6.x86_64 1/1
Installed:
nmap.x86_64 2:5.51-2.el6
Complete!
```
#### 举个例子
输出 nmap 版本号:
```
nmap --version
```
**输出样例**
```
Nmap version 5.51 ( http://nmap.org )
```
#### 用 Nmap 扫描端口
你可以用 nmap 来获得很多关于你的服务器的信息,它可以让你站在对你的网站不怀好意的人的角度看你自己的网站。
因此,请仅用它测试你自己的服务器或者在行动之前通知服务器的所有者。
nmap 的作者提供了一个测试服务器:
```
scanme.nmap.org
```
有些命令可能会耗时较长:
要扫描一个 IP 地址或者一个主机名(全称域名),运行:
```
nmap 192.168.1.1
```
输出样例:
![Fig.01: nmap in action](/data/attachment/album/201504/26/105917vkqytsyphljnfssf.png)
扫描以获得主机的操作系统:
```
sudo nmap -O 192.168.1.1
```
加上“-”或者“/24”来一次性扫描某个范围里面的多个主机:
```
sudo nmap -PN xxx.xxx.xxx.xxx-yyy
```
扫描某个范围内可用的服务:
```
sudo nmap -sP network_address_range
```
扫描 IP 地址时部进行反向 DNS 解析。多数情况下这会加快你获得结果的速度:
```
sudo nmap -n remote_host
```
扫描一个特定端口而不是所有常用端口:
```
sudo nmap -p port_number remote_host
```
扫描一个网络,找出哪些服务器在线,分别运行了什么服务。
这就是传说中的主机探索或者 ping 扫描:
```
nmap -sP 192.168.1.0/24
```
输出样例:
```
Host 192.168.1.1 is up (0.00035s latency).
MAC Address: BC:AE:C5:C3:16:93 (Unknown)
Host 192.168.1.2 is up (0.0038s latency).
MAC Address: 74:44:01:40:57:FB (Unknown)
Host 192.168.1.5 is up.
Host nas03 (192.168.1.12) is up (0.0091s latency).
MAC Address: 00:11:32:11:15:FC (Synology Incorporated)
Nmap done: 256 IP addresses (4 hosts up) scanned in 2.80 second
```
理解端口配置和如何发现你的服务器上的攻击目标只是确保你的信息和你的 VPS 安全的第一步。
### 用 Nikto 扫描你网站的缺陷
[Nikto](http://www.unixmen.com/install-nikto-web-scanner-check-vulnerabilities) 网络扫描器是一个开源的 web 服务器的扫描软件,它可以用来扫描 web 服务器上的恶意的程序和文件。Nikto 也可以用来检查软件版本是否过期。Nikto 能进行简单而快速地扫描以发现服务器上危险的文件和程序。扫描结束后会给出一个日志文件。`
#### 在 Linux 服务器上下载和安装 Nikto
Perl 在 Linux 上是预先安装好的,所以你只需要从[项目页面](https://cirt.net/nikto/)下载 nikto ,解压到一个目录里面,然后开始测试。
```
wget https://cirt.net/nikto/nikto-2.1.4.tar.gz
```
你可以用某个归档管理工具解包,或者如下同时使用 tar 和 gzip :
```
tar zxvf nikto-2.1.4.tar.gz
cd nikto-2.1.4
perl nikto.pl
```
安装正确的话会得到这样的结果:
```
- ***** SSL support not available (see docs for SSL install) *****
- Nikto v2.1.4
---------------------------------------------------------------------------
+ ERROR: No host specified
-config+ Use this config file
-Cgidirs+ scan these CGI dirs: 'none', 'all', or values like "/cgi/ /cgi-a/"
-dbcheck check database and other key files for syntax errors
-Display+ Turn on/off display outputs
-evasion+ ids evasion technique
-Format+ save file (-o) format
-host+ target host
-Help Extended help information
-id+ Host authentication to use, format is id:pass or id:pass:realm
-list-plugins List all available plugins
-mutate+ Guess additional file names
-mutate-options+ Provide extra information for mutations
-output+ Write output to this file
-nocache Disables the URI cache
-nossl Disables using SSL
-no404 Disables 404 checks
-port+ Port to use (default 80)
-Plugins+ List of plugins to run (default: ALL)
-root+ Prepend root value to all requests, format is /directory
-ssl Force ssl mode on port
-Single Single request mode
-timeout+ Timeout (default 2 seconds)
-Tuning+ Scan tuning
-update Update databases and plugins from CIRT.net
-vhost+ Virtual host (for Host header)
-Version Print plugin and database versions
+ requires a value
Note: This is the short help output. Use -H for full help.
```
这个报错只是告诉我们没有给出必要的参数。SSL 支持可以通过安装相关的 perl ssl 模块得到(sudo apt-get install libnet-ssleay-perl)。
#### 更新 nikto 数据库
在开始使用之前我们需要先更新 nikto 数据库:
```
/usr/local/bin/nikto.pl -update
```
下面的命令可以列出可用的 nikto 插件。
```
nikto.pl -list-plugins // To list the installed plugins //
```
#### 扫描以寻找缺陷
我们用一个 url 来在做个简单的测试。
```
perl nikto.pl -h http://www.host-name.com
```
**输出样例**
会有十分冗长的输出,可能一开始会让人感到困惑。许多 Nikto 的警报会返回 OSVDB 序号。这是由开源缺陷数据库(<http://osvdb.org/>)所指定。你可以在 OSVDB 上找出相关缺陷的深入说明。
```
$ nikto -h http://www.host-name.com
- Nikto v2.1.4
---------------------------------------------------------------------------
+ Target IP: 1.2.3.4
+ Target Hostname: host-name.com
+ Target Port: 80
+ Start Time: 2012-08-11 14:27:31
---------------------------------------------------------------------------
+ Server: Apache/2.2.22 (FreeBSD) mod_ssl/2.2.22 OpenSSL/1.0.1c DAV/2
+ robots.txt contains 4 entries which should be manually viewed.
+ mod_ssl/2.2.22 appears to be outdated (current is at least 2.8.31) (may depend on server version)
+ ETag header found on server, inode: 5918348, size: 121, mtime: 0x48fc943691040
+ mod_ssl/2.2.22 OpenSSL/1.0.1c DAV/2 - mod_ssl 2.8.7 and lower are vulnerable to a remote buffer overflow which may allow a remote shell (difficult to exploit). CVE-2002-0082, OSVDB-756.
+ Allowed HTTP Methods: GET, HEAD, POST, OPTIONS, TRACE
+ OSVDB-877: HTTP TRACE method is active, suggesting the host is vulnerable to XST
+ /lists/admin/: PHPList pre 2.6.4 contains a number of vulnerabilities including remote administrative access, harvesting user info and more. Default login to admin interface is admin/phplist
+ OSVDB-2322: /gallery/search.php?searchstring=<script>alert(document.cookie)</script>: Gallery 1.3.4 and below is vulnerable to Cross Site Scripting (XSS). Upgrade to the latest version. http://www.securityfocus.com/bid/8288.
+ OSVDB-7022: /calendar.php?year=<script>alert(document.cookie);</script>&month=03&day=05: DCP-Portal v5.3.1 is vulnerable to Cross Site Scripting (XSS). http://www.cert.org/advisories/CA-2000-02.html.
+ OSVDB-3233: /phpinfo.php: Contains PHP configuration information
+ OSVDB-3092: /system/: This might be interesting...
+ OSVDB-3092: /template/: This may be interesting as the directory may hold sensitive files or reveal system information.
+ OSVDB-3092: /updates/: This might be interesting...
+ OSVDB-3092: /README: README file found.
+ 6448 items checked: 1 error(s) and 14 item(s) reported on remote host
+ End Time: 2012-08-11 15:52:57 (5126 seconds)
---------------------------------------------------------------------------
+ 1 host(s) tested
$
```
**Nikto** 是一个非常轻量级的通用工具。因为 Nikto 是用 Perl 写的,所以它可以在几乎任何服务器的操作系统上运行。
希望这篇文章能在你检查 wordpress 站点的缺陷的时候给你一些提示。我之前的文章[如何安全加固 WordPress 站点](http://www.unixmen.com/secure-wordpress-website/)记录了一个**清单**,可以让你保护你的 WordPress 站点的工作变得更简单。
有想说的,留下你的评论。
---
via: <http://www.unixmen.com/scan-check-wordpress-website-security-using-wpscan-nmap-nikto/>
作者:[anismaj](http://www.unixmen.com/author/anis/) 译者:[boredivan](https://github.com/boredivan) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,333 | Linux 有问必答:如何在Linux中修复“fatal error: lame/lame.h: No such file or dir | http://ask.xmodulo.com/fatal-error-lame-no-such-file-or-directory.html | 2015-04-26T10:43:25 | [
"lame"
] | /article-5333-1.html |
>
> **提问**: 我尝试着在Linux中编译视频编码器,但是编译提示出错:“fatal error: lame/lame.h: No such file or directory”, 我该如何修复这个错误?
>
>
>
下面的编译错误说明你的系统没有安装LAME库和它的开发文件。
```
fatal error: lame/lame.h: No such file or directory
```
[LAME](http://lame.sourceforge.net/)("LAME Ain't an MP3 Encoder")是一个流行的LPGL授权的MP3编码器。许多视频编码工具使用或者支持LAME,如 [FFmpeg](http://ask.xmodulo.com/compile-ffmpeg-ubuntu-debian.html)、 VLC、 [Audacity](http://xmodulo.com/how-to-cut-split-or-edit-mp3-file-on-linux.html)、 K3b、 RipperX等。
要修复这个编译错误,你需要安装LAME库和开发文件,按照下面的来。
### 在Debian、Ubuntu或者Linux Mint上安装LAME库和安装文件
Debian和它的衍生版在基础库中已经提供了LAME库,因此可以用apt-get直接安装。
```
$ sudo apt-get install libmp3lame-dev
```
### 在Fedora、CentOS/RHEL上安装LAME库和安装文件
在基于RED HAT的版本中,LAME在RPM Fusion的免费仓库中就有,那么你需要先设置[RPM Fusion (免费)仓库](http://xmodulo.com/how-to-install-rpm-fusion-on-fedora.html)。
RPM Fusion设置完成后,如下安装LAME开发包。
```
$ sudo yum --enablerepo=rpmfusion-free-updates install lame-devel
```
在2015年1月,RPM Fusion仓库已经不可以在CentOS/RHEL 7中可用了。因此,这个方法不能用在CentOS/RHEL 7 中。这时你就要从源码安装LAME库了(下面会描述)。
### 在Debian、Ubuntu或者Linux Mint中从源码编译LAME库
如果你希望用不同的编译选项安装自定义的LAME库,你需要自己编译。下面是怎样在基于Debian的系统中编译和安装LAME库(和它的头文件)。
```
$ sudo apt-get install gcc git
$ wget http://downloads.sourceforge.net/project/lame/lame/3.99/lame-3.99.5.tar.gz
$ tar -xzf lame-3.99.5.tar.gz
$ cd lame-3.99.5
$ ./configure --enable-static --enable-shared
$ make
$ sudo make install
```
注意当你运行上面的配置步骤时,你可以根据你的需求启用会禁止不同的选项。运行下面的命令查看不同的编译选项。
```
$ ./configure --help
```
共享/静态的LAME库默认安装在 /usr/local/lib。要让共享库可以被其他程序使用,完成最后一步:
用编辑器打开 /etc/ld.so.conf,加入下面这行。
```
/usr/local/lib
```
接着运行下面的命令,这会将/usr/local/lib中的共享库添加到动态加载缓存中,因此LAME库就可以被其他程序调用了。
```
$ sudo ldconfig
```
### 在Fedora或者CentOS/RHEL中从源码编译LAME库
如果你的发行版(比如 CentOS 7)没有提供预编译的LAME库,或者你想要自定义LAME库,你需要从源码自己编译。下面是在基于Red Hat的系统中编译安装LAME库的方法。
```
$ sudo yum install gcc git
$ wget http://downloads.sourceforge.net/project/lame/lame/3.99/lame-3.99.5.tar.gz
$ tar -xzf lame-3.99.5.tar.gz
$ cd lame-3.99.5
$ ./configure --enable-static --enable-shared
$ make
$ sudo make install
```
运行make之前,你可以在configure中带上合适的选项自定义编译选项。你可以用下面的命令检查可用的选项:
```
$ ./configure --help
```
最后你需要完成最后一步,因为安装在/usr/local/lib的LAME共享库可能在其他程序中不可用。
在/etc/ld.so.conf中添加下面这行:
```
/usr/local/lib
```
接着运行下面的命令。这会添加 /usr/local/lib中的共享库(包括LAME)到动态加载缓存中,让其他程序可以访问到。
```
$ sudo ldconfig
```
![](/data/attachment/album/201504/26/104330xjhjhhkjs28jhsra.jpg)
---
via: <http://ask.xmodulo.com/fatal-error-lame-no-such-file-or-directory.html>
作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /fatal-error-lame-no-such-file-or-directory.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c6530>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)")) | null |
5,334 | 如何设置 Linux 上 SSH 登录的 Email 提醒 | http://www.ehowstuff.com/how-to-get-email-alerts-for-ssh-login-on-linux-server/ | 2015-04-26T11:01:08 | [
"SSH",
"安全"
] | https://linux.cn/article-5334-1.html | ![](/data/attachment/album/201504/26/110109vuuse6eh1ukk4553.jpg)
虚拟私有服务器 (VPS)上启用 SSH 服务使得该服务器暴露到互联网中,为黑客攻击提供了机会,尤其是当 VPS 还允许root 直接访问时。VPS 应该为每次 SSH 登录成功尝试配置一个自动的 email 警告。 VPS 服务器的所有者会得到各种 SSH 服务器访问日志的通知,例如登录者、登录时间以及来源 IP 地址等信息。这是一个对于服务器拥有者来说,保护服务器避免未知登录尝试的重要安全关注点。这是因为如果黑客使用暴力破解方式通过 SSH 来登录到你的 VPS 的话,后果很严重。在本文中,我会解释如何在 CentOS 6、 CentOS 7、 RHEL 6 和 RHEL 7上为所有的 SSH 用户登录设置一个 email 警告。
1. 使用root用户登录到你的服务器;
2. 在全局源定义处配置警告(/etc/bashrc),这样就会对 root 用户以及普通用户都生效:
```
[root@vps ~]# vi /etc/bashrc
```
将下面的内容加入到上述文件的尾部。
```
echo 'ALERT - Root Shell Access (vps.ehowstuff.com) on:' `date` `who` | mail -s "Alert: Root Access from `who | cut -d'(' -f2 | cut -d')' -f1`" recipient@gmail.com
```
3. 你也可以选择性地让警告只对 root 用户生效:
```
[root@vps ~]# vi .bashrc
```
将下面的内容添加到/root/.bashrc的尾部:
```
echo 'ALERT - Root Shell Access (vps.ehowstuff.com) on:' `date` `who` | mail -s "Alert: Root Access from `who | cut -d'(' -f2 | cut -d')' -f1`" recipient@gmail.com
```
整个配置文件样例:
```
# .bashrc
# User specific aliases and functions
alias rm='rm -i'
alias cp='cp -i'
alias mv='mv -i'
# Source global definitions
if [ -f /etc/bashrc ]; then
. /etc/bashrc
fi
echo 'ALERT - Root Shell Access (vps.ehowstuff.com) on:' `date` `who` | mail -s "Alert: Root Access from `who | cut -d'(' -f2 | cut -d')' -f1`" recipient@gmail.com
```
4. 你也可以选择性地让警告只对特定的普通用户生效(例如 skytech):
```
[root@vps ~]# vi /home/skytech/.bashrc
```
将下面的内容加入到/home/skytech/.bashrc文件尾部:
```
echo 'ALERT - Root Shell Access (vps.ehowstuff.com) on:' `date` `who` | mail -s "Alert: Root Access from `who | cut -d'(' -f2 | cut -d')' -f1`" recipient@gmail.com
```
---
via: <http://www.ehowstuff.com/how-to-get-email-alerts-for-ssh-login-on-linux-server/>
作者:[skytech](http://www.ehowstuff.com/author/mhstar/) 译者:[theo-l](https://github.com/theo-l) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,335 | 怎样在 CentOS 7.0 上安装和配置 VNC 服务器 | http://linoxide.com/linux-how-to/install-configure-vnc-server-centos-7-0/ | 2015-04-26T14:24:00 | [
"VNC"
] | /article-5335-1.html | 这是一个关于怎样在你的 CentOS 7 上安装配置 [VNC](http://en.wikipedia.org/wiki/Virtual_Network_Computing) 服务的教程。当然这个教程也适合 RHEL 7 。在这个教程里,我们将学习什么是 VNC 以及怎样在 CentOS 7 上安装配置 [VNC 服务器](http://en.wikipedia.org/wiki/Virtual_Network_Computing)。
我们都知道,作为一个系统管理员,大多数时间是通过网络管理服务器的。在管理服务器的过程中很少会用到图形界面,多数情况下我们只是用 SSH 来完成我们的管理任务。在这篇文章里,我们将配置 VNC 来提供一个连接我们 CentOS 7 服务器的方法。VNC 允许我们开启一个远程图形会话来连接我们的服务器,这样我们就可以通过网络远程访问服务器的图形界面了。
VNC 服务器是一个自由开源软件,它可以让用户可以远程访问服务器的桌面环境。另外连接 VNC 服务器需要使用 VNC viewer 这个客户端。
![](/data/attachment/album/201504/26/112812oz6l6tnr6trnmluc.png)
一些 VNC 服务器的优点:
* 远程的图形管理方式让工作变得简单方便。
* 剪贴板可以在 CentOS 服务器主机和 VNC 客户端机器之间共享。
* CentOS 服务器上也可以安装图形工具,让管理能力变得更强大。
* 只要安装了 VNC 客户端,通过任何操作系统都可以管理 CentOS 服务器了。
* 比 ssh 图形转发和 RDP 连接更可靠。
那么,让我们开始安装 VNC 服务器之旅吧。我们需要按照下面的步骤一步一步来搭建一个可用的 VNC。
首先,我们需要一个可用的桌面环境(X-Window),如果没有的话要先安装一个。
**注意:以下命令必须以 root 权限运行。要切换到 root ,请在终端下运行“sudo -s”,当然不包括双引号(“”)**
### 1. 安装 X-Window
首先我们需要安装 [X-Window](http://en.wikipedia.org/wiki/X_Window_System),在终端中运行下面的命令,安装会花费一点时间。
```
# yum check-update
# yum groupinstall "X Window System"
```
![installing x windows](/data/attachment/album/201504/26/112815zz6kgdkqznknnqqf.png)
```
#yum install gnome-classic-session gnome-terminal nautilus-open-terminal control-center liberation-mono-fonts
```
![install gnome classic session](/data/attachment/album/201504/26/112815pgyhigy0ycpccz0c.png)
```
### 设置默认启动图形界面
# unlink /etc/systemd/system/default.target
# ln -sf /lib/systemd/system/graphical.target /etc/systemd/system/default.target
```
![configuring graphics](/data/attachment/album/201504/26/112816e4dvx6zui4z9ugz4.png)
```
# reboot
```
在服务器重启之后,我们就有了一个工作着的 CentOS 7 桌面环境了。
现在,我们要在服务器上安装 VNC 服务器了。
### 2. 安装 VNC 服务器
现在要在我们的 CentOS 7 上安装 VNC 服务器了。我们需要执行下面的命令。
```
# yum install tigervnc-server -y
```
![vnc server](/data/attachment/album/201504/26/112817b0m2tj40jjs0120l.png)
### 3. 配置 VNC
然后,我们需要在 `/etc/systemd/system/` 目录里创建一个配置文件。我们可以将 `/lib/systemd/sytem/vncserver@.service` 拷贝一份配置文件范例过来。
```
# cp /lib/systemd/system/vncserver@.service /etc/systemd/system/vncserver@:1.service
```
![copying vnc server configuration](/data/attachment/album/201504/26/112817khh66mhmndtlg1h6.png)
接着我们用自己最喜欢的编辑器(这儿我们用的 **nano** )打开 `/etc/systemd/system/vncserver@:1.service` ,找到下面这几行,用自己的用户名替换掉 。举例来说,我的用户名是 linoxide 所以我用 linoxide 来替换掉 :
```
ExecStart=/sbin/runuser -l <USER> -c "/usr/bin/vncserver %i"
PIDFile=/home/<USER>/.vnc/%H%i.pid
```
替换成
```
ExecStart=/sbin/runuser -l linoxide -c "/usr/bin/vncserver %i"
PIDFile=/home/linoxide/.vnc/%H%i.pid
```
如果是 root 用户则
```
ExecStart=/sbin/runuser -l root -c "/usr/bin/vncserver %i"
PIDFile=/root/.vnc/%H%i.pid
```
![configuring user](/data/attachment/album/201504/26/112818a5s5i5pdok2g5dyr.png)
好了,下面重启 systemd 。
```
# systemctl daemon-reload
```
最后还要设置一下用户的 VNC 密码。要设置某个用户的密码,必须要有能通过 sudo 切换到用户的权限,这里我用 linoxide 的权限,执行“`su linoxide`”就可以了。
```
# su linoxide
$ sudo vncpasswd
```
![setting vnc password](/data/attachment/album/201504/26/112818f4rw9i46yt9carg9.png)
**确保你输入的密码多于6个字符**
### 4. 开启服务
用下面的命令(永久地)开启服务:
```
$ sudo systemctl enable vncserver@:1.service
```
启动服务。
```
$ sudo systemctl start vncserver@:1.service
```
### 5. 防火墙设置
我们需要配置防火墙来让 VNC 服务正常工作。
```
$ sudo firewall-cmd --permanent --add-service vnc-server
$ sudo systemctl restart firewalld.service
```
![allowing firewalld](/data/attachment/album/201504/26/112819xd57amrcrqdvrdrj.png)
现在就可以用 IP 和端口号(LCTT 译注:例如 192.168.1.1:1 ,这里的端口不是服务器的端口,而是视 VNC 连接数的多少从1开始排序)来连接 VNC 服务器了。
### 6. 用 VNC 客户端连接服务器
好了,现在已经完成了 VNC 服务器的安装了。要使用 VNC 连接服务器,我们还需要一个在本地计算机上安装的仅供连接远程计算机使用的 VNC 客户端。
![remote access vncserver from vncviewer](/data/attachment/album/201504/26/112821l72b1bbwbgbbbe2g.png)
你可以用像 [Tightvnc viewer](http://www.tightvnc.com/) 和 [Realvnc viewer](https://www.realvnc.com/) 的客户端来连接到服务器。
要用更多的用户连接,需要创建配置文件和端口,请回到第3步,添加一个新的用户和端口。你需要创建 `vncserver@:2.service` 并替换配置文件里的用户名和之后步骤里相应的文件名、端口号。**请确保你登录 VNC 服务器用的是你之前配置 VNC 密码的时候使用的那个用户名**。
VNC 服务本身使用的是5900端口。鉴于有不同的用户使用 VNC ,每个人的连接都会获得不同的端口。配置文件名里面的数字告诉 VNC 服务器把服务运行在5900的子端口上。在我们这个例子里,第一个 VNC 服务会运行在5901(5900 + 1)端口上,之后的依次增加,运行在5900 + x 号端口上。其中 x 是指之后用户的配置文件名 `vncserver@:x.service` 里面的 x 。
在建立连接之前,我们需要知道服务器的 IP 地址和端口。IP 地址是一台计算机在网络中的独特的识别号码。我的服务器的 IP 地址是96.126.120.92,VNC 用户端口是1。
执行下面的命令可以获得服务器的公网 IP 地址(LCTT 译注:如果你的服务器放在内网或使用动态地址的话,可以这样获得其公网 IP 地址)。
```
# curl -s checkip.dyndns.org|sed -e 's/.*Current IP Address: //' -e 's/<.*$//'
```
### 总结
好了,现在我们已经在运行 CentOS 7 / RHEL 7 的服务器上安装配置好了 VNC 服务器。VNC 是自由开源软件中最简单的一种能实现远程控制服务器的工具,也是一款优秀的 Teamviewer Remote Access 替代品。VNC 允许一个安装了 VNC 客户端的用户远程控制一台安装了 VNC 服务的服务器。下面还有一些经常使用的相关命令。好好玩!
#### 其他命令:
* 关闭 VNC 服务。
```
# systemctl stop vncserver@:1.service
```
* 禁止 VNC 服务开机启动。
```
# systemctl disable vncserver@:1.service
```
* 关闭防火墙。
```
# systemctl stop firewalld.service
```
---
via: <http://linoxide.com/linux-how-to/install-configure-vnc-server-centos-7-0/>
作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[boredivan](https://github.com/boredivan) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/install-configure-vnc-server-centos-7-0/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c5fc0>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,336 | Debian 8 "Jessie" 发布! | https://www.debian.org/News/2015/20150426 | 2015-04-26T20:43:05 | [
"Debian",
"Debian 8",
"Jessie"
] | https://linux.cn/article-5336-1.html | **2015年4月25日** ,在经历了近24个月的持续开发之后,Debian 项目自豪地宣布最新的稳定版本8的发布(代号 “**Jessie**” ),归功于[Debian安全团队](http://security-team.debian.org/)和[Debian长期支持](https://wiki.debian.org/LTS)团队的工作,该版本将在接下来的5年内获得支持。
![Debian](/data/attachment/album/201504/26/204308k3p5us1urfk42q1p.jpg)
“**Jessie**” 与新的默认 init 系统 `systemd` 一同到来。`systemd` 套件提供了许多激动人心的特性,如更快的启动速度、系统服务的 cgroups 支持、以及独立出部分服务的可能性。不过,`sysvinit` init系统在 “**Jessie**” 中依然可用。
在 “**Wheezy**” 中引入的 UEFI 支持(*“Unified Extensible Firmware Interface”*,统一的可扩展固件接口)同样在 “**Jessie**” 中得到了大幅改进。其中包含了许多已知固件 bug 的临时性解决方案,支持32位系统上的UEFI,也支持64位内核运行在32位 UEFI 固件上(后者仅被包含在我们的 `amd64/i386` “multi-arch” 安装介质中)。
自上个版本发布以来,Debian 项目的成员同样对我们的支持服务做出了重要改进。其中之一是[可浏览所有 Debian 的源码](https://www.debian.org/News/weekly/2013/14/#sources),该服务目前放在 [sources.debian.net](https://sources.debian.net/)。当然,在超过20000个源码包里想要找到正确的文件确实令人望而生畏。因此,我们同样十分高兴地上线 [Debian 代码搜索](https://www.debian.org/News/weekly/2014/17/#DCS),它放在 [codesearch.debian.net](https://codesearch.debian.net/)。这两项服务都由一个完全重写并且更加反应敏捷的[包追踪系统](https://tracker.debian.org/)提供。
该版本包含大量的软件包更新,如:
* Apache 2.4.10
* Asterisk 11.13.1
* GIMP 2.8.14
* 一个GNOME桌面环境 3.14 的升级版本
* GCC 编译器 4.9.2
* Icedove 31.6.0 (一个 Mozilla Thunderbird 的再发布版本)
* Iceweasel 31.6.0esr (一个 Mozilla Firefox 的再发布版本)
* KDE Plasma Workspaces 和 KDE Applications 4.11.13
* LibreOffice 4.3.3
* Linux 3.16.7-ctk9
* MariaDB 10.0.16 和 MySQL 5.5.42
* Nagios 3.5.1
* OpenJDK 7u75
* Perl 5.20.2
* PHP 5.6.7
* PostgreSQL 9.4.1
* Python 2.7.9 和 3.4.2
* Samba 4.1.17
* Tomcat 7.0.56 和 8.0.14
* Xen Hypervisor 4.4.1
* Xfce 4.10桌面环境
* 超过43000个其它可供使用的软件包,从将近20100个源码包编译而来
与如此之多的软件包选择和照例的广泛架构支持,Debian 再次向它的目标:成为通用操作系统迈出正确的一步。Debian 适用于各种不同情形:从桌面系统到上网本;从开发服务器到集群系统;以及数据库,web,或存储服务器。同时,在此基础之上的质量保证工作,如对 Debian 上所有包的自动安装和升级测试,让 “**Jessie**” 可以满足用户拥有一个稳定的 Debian 版本的高期望值。
总共支持十种架构:32位PC/Intel IA-32(`i386`),64位PC/Intel EM64T / x86-64 (`amd64`),Motorola/IBM PowerPC (旧硬件的`powerpc`和新的64位`ppc64el`(little-endian)),MIPS (`mips` 大端和 `mipsel`小端),IBM S/390 (64位 `s390x`)以及 ARM 新老32位硬件的`armel`和`armhf`,加上给新64位 *“AArch64”* 架构的`arm64`。
### 想尝试一下?
如果你仅仅是想在不安装的情况下体验 Debian 8 “**Jessie**”,你可以使用一个特殊的镜像,即 live 镜像,可以用在 CD,U 盘以及网络启动设置上。最先只有 `amd64` 和 `i386` 架构提供这些镜像。Live 镜像同样可以用来安装 Debian。更多信息请访问 [Debian Live 主页](http://live.debian.net/)。
但是如果你想安装 Debian 到你的计算机的话,有不少安装媒介可供你选择,如蓝光碟,DVD,CD 以及 U 盘,或者从网络安装。有几种桌面环境:GNOME,KDE Plasma 桌面及 Plasma 应用,Xfce 以及 LXDE,它们可以从CD镜像中安装,也可以从 CD/DVD 的启动菜单里选择想要的桌面环境。另外,同样提供了多架构 CD 和 DVD,可以从单一磁盘选择安装不同架构的系统。或者你还可以创建可启动 U 盘安装媒介(参看[安装指南](https://www.debian.org/releases/jessie/installmanual)获得更多细节)。对云用户,Debian 还提供了[预构建 OpenStack 镜像](http://cdimage.debian.org/cdimage/openstack/current/)可供使用。
安装镜像现在同样可以通过 [bittorrent](https://www.debian.org/CD/torrent-cd/)(推荐下载方式),[jigdo](https://www.debian.org/CD/jigdo-cd/#which) 或 [HTTP](https://www.debian.org/CD/http-ftp/) 下载,查看[Debian 光盘](https://www.debian.org/CD/)获得更进一步的信息。“**Jessie**” 不久将提供实体 DVD,CD-ROM,以及无数[供应商](https://www.debian.org/CD/vendors)的蓝光碟。
### 升级 Debian
如果从前一个版本 Debian 7(代号 “**Wheezy**” )升级到 Debian 8,大部分配置情况 apt-get 包管理工具都能够自动解决。Debian 系统一如既往地能够就地无痛升级,无需强制停机。强烈推荐阅读[发行注记](https://www.debian.org/releases/jessie/releasenotes)和[安装指南](https://www.debian.org/releases/jessie/installmanual)来了解可能存在的问题,并了解安装和升级建议。发行注记会在发布后的几周内进一步改进,并翻译成其他语言。
关于 Debian
---------
Debian 是一个自由操作系统,由成千上万来自全世界的志愿者通过互联网协作开发。Debian 项目的关键力量是它的志愿者基础,它对 Debian 社群契约和自由软件的贡献,以及对提供最好的操作系统可能的承诺。Debian 8是其前进方向上又一重要一步。
联系信息
----
获取更多信息,请访问 Debian 主页 <https://www.debian.org/> 或发送电子邮件至[press@debian.org](mailto:press@debian.org)。
---
via: <https://www.debian.org/News/2015/20150426>
译者:[alim0x](https://github.com/alim0x) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 200 | OK | # Debian 8 Jessie
released
**April 25th, 2015**
After almost 24 months of constant development the Debian project is
proud to present its new stable version 8 (code name Jessie
),
which will be supported for the next 5 years thanks to the combined
work of the [Debian Security
team](http://security-team.debian.org/) and of the [Debian Long Term
Support](https://wiki.debian.org/LTS) team.
Jessie
ships with a new default init system, `systemd`
. The
`systemd`
suite provides many exciting features such as faster
boot times, cgroups for services, and the possibility of isolating part of
the services. The `sysvinit`
init system is still available
in Jessie
.
The UEFI (Unified Extensible Firmware Interface
) support introduced in
Wheezy
has also been greatly improved in Jessie.
This includes workarounds for many known firmware bugs, support
for UEFI on 32-bit systems, and support for 64-bit kernels with 32-bit UEFI
firmware (with the latter being included only on our `amd64/i386`
multi-arch
installation media).
Since the previous release, members of the Debian project have also
made important improvements to our supporting services. One of these is [a browsable
view of all source code shipped in Debian](https://www.debian.org/News/weekly/2013/14/#sources) currently available at
[sources.debian.net](https://sources.debian.net). Of
course, with over 20,000 source packages, it can be quite daunting to
locate the right file. Therefore, we are also very
pleased to present [Debian Code
Search](https://www.debian.org/News/weekly/2014/17/#DCS), available at [codesearch.debian.net](https://codesearch.debian.net/).
Both services are complemented by a completely rewritten and more
responsive [package tracking system](https://tracker.debian.org/).
This release includes numerous updated software packages, such as:
- Apache 2.4.10
- Asterisk 11.13.1
- GIMP 2.8.14
- an updated version of the GNOME desktop environment 3.14
- GNU Compiler Collection 4.9.2
- Icedove 31.6.0 (an unbranded version of Mozilla Thunderbird)
- Iceweasel 31.6.0esr (an unbranded version of Mozilla Firefox)
- KDE Plasma Workspaces and KDE Applications 4.14.2
- LibreOffice 4.3.3
- Linux 3.16.7-ckt9
- MariaDB 10.0.16 and MySQL 5.5.42
- Nagios 3.5.1
- OpenJDK 7u75
- Perl 5.20.2
- PHP 5.6.7
- PostgreSQL 9.4.1
- Python 2.7.9 and 3.4.2
- Samba 4.1.17
- Tomcat 7.0.56 and 8.0.14
- Xen Hypervisor 4.4.1
- the Xfce 4.10 desktop environment
- more than 43,000 other ready-to-use software packages, built from nearly 20,100 source packages.
With this broad selection of packages and its traditional wide architecture support,
Debian once again stays true
to its goal of being the universal operating system. It is suitable
for many different use cases: from desktop systems to netbooks; from
development servers to cluster systems; and for database, web, or
storage servers. At the same time, additional quality assurance
efforts like automatic installation and upgrade tests for all packages
in Debian's archive ensure that Jessie
fulfills the high
expectations that users have of a stable Debian release.
A total of ten architectures are supported: 32-bit PC / Intel IA-32
(`i386`
), 64-bit PC / Intel EM64T / x86-64
(`amd64`
), Motorola/IBM PowerPC (`powerpc`
for
older hardware and `ppc64el`
for the new 64-bit
(little-endian)), MIPS (`mips`
(big-endian) and
`mipsel`
(little-endian)), IBM S/390 (64-bit
`s390x`
) and for ARM, `armel`
and `armhf`
for old and new 32-bit hardware, plus `arm64`
for the new 64-bit
AArch64
architecture.
### Want to give it a try?
If you simply want to try Debian 8 Jessie
without having to install it, you can use a
special image, known as a live image, available for CDs, USB sticks, and netboot
setups. Initially, these images are provided for the `amd64`
and
`i386`
architectures only. It is also possible to use these live
images to install Debian. More information is available from the
[Debian Live homepage](http://live.debian.net/).
If, instead, you want to install it to your computer's permanent storage, you can choose from
a range of installation media, such as Blu-ray Discs, DVDs,
CDs, and USB sticks, or from the network. Several desktop environments —
GNOME, KDE Plasma Desktop and Applications, Xfce, and LXDE — may be
installed through CD images; the desired one may be chosen from the boot menus
of the CDs/DVDs. In addition, multi-architecture CDs and DVDs are available
which support installation of multiple architectures from a single disc.
Or you can always create bootable USB installation media
(see the [Installation Guide](../../releases/jessie/installmanual)
for more details). For cloud users Debian also offers
[pre-built
OpenStack images](https://cdimage.debian.org/cdimage/openstack/current/), ready to use.
The installation images may be downloaded right now via
[bittorrent](../../CD/torrent-cd/) (the recommended method),
[jigdo](../../CD/jigdo-cd/#which), or
[HTTP](../../CD/http-ftp/); see
[Debian on CDs](../../CD/) for further information. Jessie
will
soon be available on physical DVD, CD-ROM, and Blu-ray Discs from
numerous [vendors](../../CD/vendors) too.
### Upgrading Debian
Upgrades to Debian 8 from the previous release, Debian
7 (codenamed Wheezy
), are automatically handled by
the apt-get package management tool for most configurations.
As always, Debian systems may be upgraded painlessly, in place,
without any forced downtime, but it is strongly recommended to read
the [release notes](../../releases/jessie/releasenotes) as well as
the [installation guide](../../releases/jessie/installmanual)
for possible issues, and for detailed instructions on installing and
upgrading. The release notes will be further improved and translated
to additional languages in the weeks after the release.
## About Debian
Debian is a free operating system, developed by thousands of volunteers from all over the world who collaborate via the Internet. The Debian project's key strengths are its volunteer base, its dedication to the Debian Social Contract and Free Software, and its commitment to provide the best operating system possible. Debian 8 is another important step in that direction.
## Contact Information
For further information, please visit the Debian web pages at
[https://www.debian.org/](../../) or send mail to
<press@debian.org>. |
5,337 | 在Linux上安装使用‘Go for it!’备忘软件 | http://itsfoss.com/go-for-it-to-do-app-in-linux/ | 2015-04-27T10:27:41 | [
"备忘软件"
] | https://linux.cn/article-5337-1.html | ![](/data/attachment/album/201504/27/102743gcjp3cv7jp4kkz66.jpg)
你在 Linux 桌面是如何管理任务和备忘的?我喜欢[用 Ubuntu 的粘帖便签](http://itsfoss.com/indicator-stickynotes-windows-like-sticky-note-app-for-ubuntu/)很久了。但是我要面对与其他设备同步的麻烦,特别是我的智能手机。这就是我为什么选择使用 [Google Keep](http://itsfoss.com/install-google-keep-ubuntu-1310/) 的原因了。
Google Keep 是一款功能丰富的软件,我十分喜爱,而且喜欢到把它叫做 [Linux 的 Evernote](http://itsfoss.com/5-evernote-alternatives-linux/) 地步。但是并不是每个人都喜欢一款功能丰富的备忘录软件。极简主义是目前的主流,很多人喜欢。如果你是极简主义的追求者之一,而且正在寻找一款开源的备忘录软件,那么你应该试一试 [Go For It!](http://manuel-kehl.de/projects/go-for-it/)。
### Go For It!高效的Linux桌面软件
Go For It!是一款简洁的备忘软件,借助定时提醒帮助你专注于工作。所以,当你添加一个任务到列表后,可以附上一个定时器。到设定时间后,它就会提醒你去做任务。你可以看看其帅哥开发者 [Manuel Kehl](http://manuel-kehl.de/about-me/) 制作的视频(youtube 视频) : <https://www.youtube.com/watch?v=mnw556C9FZQ>
### 安装 Go For It!
要在 Ubuntu 15.04,14.04 和其他基于 Ubuntu 的Linux 发行版,如Linux Mint, elementary OS Freya 等上面安装 Go For It!请使用这款软件官方的 PPA:
```
sudo add-apt-repository ppa:mank319/go-for-it
sudo apt-get update
sudo apt-get install go-for-it
```
你也可以下载 .deb 包,Windows 安装包和源代码,链接如下:
* [Download source code](https://github.com/mank319/Go-For-It)
* [Download .deb binaries](https://launchpad.net/%7Emank319/+archive/ubuntu/go-for-it)
* [Download for Windows](http://manuel-kehl.de/projects/go-for-it/download-windows-version/)
### 在Linux桌面使用 Go For It!
Go For It!使用真心方便。你只需添加任务到列表中,任务会自动存入 todo.txt 文件中。
![](/data/attachment/album/201504/27/102743ri677zvt6t9yzii4.png)
每个任务默认定时25分钟。
![](/data/attachment/album/201504/27/102744wqoy5gi5ne9823zo.png)
任务一旦完成,就会被自动存档到 done.txt 文件中。根据设置,它会在规定的时间间隔或者任务过期前不久,发送桌面提醒:
![](/data/attachment/album/201504/27/102744sk8ffbuzk4jb8rk5.png)
你可以从配置里面修改所有的偏好。
![](/data/attachment/album/201504/27/102744d22njbxmu0tff0j7.png)
目前一切都看着挺好。但是在智能手机上使用体验怎样呢?如果你不能使它在不同设备间同步,那这款高效软件就是不完整的。好消息是 Go For It!是基于 [todo.txt](http://todotxt.com/) 的,这意味着你可以用第三方软件和像 Dropbox 一样的云服务来使用它。
### 在安卓手机和平板上使用Go For It!
在这里你需要做一些工作。首先的首先,在 Linux 和你的安卓手机上安装 Dropbox,如果之前没有安装的话。下一步你要做的就是要配置 Go For It!和 **修改 todo.txt 的目录到 Dropbox 的路径下**。
然后,你得去下载 [Simpletask Andriod app](https://play.google.com/store/apps/details?id=nl.mpcjanssen.todotxtholo&hl=en)。这是免费的应用。安装它。当你第一次运行 Simletask 的时候,你会被要求关联你的账号到 Dropbox:
![](/data/attachment/album/201504/27/102745s2omwtiwb82bzbo4.jpg)
一旦你完成了 Simpletask 与 Dropbox 的关联,就可以打开应用了。如果你已经修改了 Go For It 的配置,将文件保存到Dropbox 上,你就应该可以在 Simpletask 里看到。而如果你没有看到,点击应用底部的设置,选择 Open Todo file 的选项:
![](/data/attachment/album/201504/27/102745z5xexnffhwwsu2ah.jpg)
现在,你应该可以看到 Simpletask 同步的任务了。
### 总结
对于 Simpletask,你就可以以类似[标记语言工具](http://itsfoss.com/install-latex-ubuntu-1404/)的风格使用它。对于小巧和专注而言,Go For It!是一款不错的备忘软件。一个干净的界面是额外的加分点。如果拥有它自己的手机应用就更好了,但是我们也有临时替代方案了。
底层来讲,Go For It! 不会运行在后台。这就是说,你不得不让它一直保持运行。它甚至没有一个最小化的按钮,这有一点小小的烦扰。我想要看到的是有一个小的指示程序,运行在后台,并且快速进入主面板,这肯定会提升其可用性。
试试 Go For It!吧,分享一下你的使用体验。在 Linux 桌面上,你还使用了哪些其他的备忘软件?比起其他你最喜欢的同类应用,Go For It!怎么样?
---
via: <http://itsfoss.com/go-for-it-to-do-app-in-linux/>
作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,338 | Papyrus:开源笔记管理工具 | http://itsfoss.com/papyrus-open-source-note-manager/ | 2015-04-28T08:34:00 | [
"笔记软件",
"Papyrus"
] | https://linux.cn/article-5338-1.html | ![](/data/attachment/album/201504/27/103532ftwifdiyuvnefhwu.jpg)
在上一篇帖子中,我们介绍了[待办事项管理软件Go For It!](http://linux.cn/article-5337-1.html)。今天我们将介绍一款名为**Papyrus的开源笔记软件**
[Papyrus](http://aseman.co/en/products/papyrus/) 是[Kaqaz 笔记管理](https://github.com/sialan-labs/kaqaz/)的一个分支,使用 Qt5 开发。它不仅有简洁、易用的界面,(其宣称)还具备了较好的安全性。由于强调简洁,我觉得 Papyrus 与 OneNote 比较相像。你可以将你的笔记像"纸张"一样分类整理,还可以给他们添加标签进行分组。够简单的吧!
Papyrus 的特性:
------------
虽然 Papyrus 强调简洁,它依然有很多丰富的功能。它的一些主要功能如下:
* 按类别和标签管理笔记
* 高级搜索选项
* 触屏模式
* 全屏选项
* 备份至 Dropbox/硬盘/外部存储
* 允许加密某些页面
* 可与其他软件共享笔记
* 与 Dropbox 加密同步
* 除 Linux 外,还可在 Android,Windows 和 OS X 使用
### 安装 Papyrus
Papyrus 为 Android 用户提供了 APK 安装包。Windows 和 OS X 也有安装文件。Linux 用户还可以获取程序的源码。Ubuntu 及其它基于 Ubuntu 的发行版可以使用 .deb 包进行安装。根据你的系统及习惯,你可以从 Papyrus 的下载页面中获取不同的文件:
* [下载 Papyrus](http://aseman.co/en/products/papyrus/)
### 软件截图
以下是此软件的一些截图:
![](/data/attachment/album/201504/27/103532kb0o2pr30m3b0ih0.jpg)
![](/data/attachment/album/201504/27/103533n4r3wph3n2rrqmp2.jpg)
![](/data/attachment/album/201504/27/103533rr77lrhh5kmiizrr.jpg)
![](/data/attachment/album/201504/27/103534b2gup9lnc99aoiwn.jpg)
试试Papyrus吧,你会喜欢上它的。在下方评论区和我们分享你的使用经验吧。
(LCTT译注:此软件暂无中文版)
---
via: <http://itsfoss.com/papyrus-open-source-note-manager/>
作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[KevinSJ](https://github.com/KevinSJ) 校对:[Caroline](https://github.com/carolinewuyan)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,339 | 走向 Docker | http://cocoahunter.com/2015/01/23/docker-1/ | 2015-04-27T10:55:00 | [
"Docker"
] | https://linux.cn/article-5339-1.html | ![](/data/attachment/album/201504/27/211511spw0shxsaaamxa80.jpg)
[TL;DR] 这是系列的第一篇文章,这系列讲述了我的公司如何把基础服务从PaaS迁移到Docker上。如果你愿意,你可以直接跳过介绍(这篇文章)直接看技术相关的话题(链接在页面的底部)。
---
上个月,我一直在折腾开发环境。这是我个人故事和经验,关于尝试用Docker简化Rails应用的部署过程。
当我在2012年创建我的公司 – [Touchware](http://www.touchwa.re/)时,我还是一个独立开发者。很多事情很小,不复杂,他们不需要很多维护,他们也不需要部署到很多机器上。经过过去一年的发展,我们成长了很多(我们现在是是拥有10个人的团队)而且我们的服务端的程序和API无论在范围和规模方面都有增长。
### 第1步 - Heroku
我们还是个小公司,我们需要让事情运行地尽可能平稳。当我们寻找可行的解决方案时,我们打算坚持用那些可以帮助我们减轻对硬件依赖负担的工具。由于我们主要开发Rails应用,而Heroku对RoR、常用的数据库和缓存(Postgres/Mongo/Redis等)有很好的支持,最明智的选择就是用[Heroku](http://www.heroku.com) 。我们就是这样做的。
Heroku有很好的技术支持和文档,使得部署非常轻松。唯一的问题是,当你处于起步阶段,你需要很多开销。这不是最好的选择,真的。
### 第2步 - Dokku
为了尝试并降低成本,我们决定试试Dokku。[Dokku](https://github.com/progrium/dokku),引用GitHub上的一句话
>
> Docker 驱动的 mini-Heroku,只用了一百来行的 bash 脚本
>
>
>
我们启用的[DigitalOcean](http://www.digitalocean.com)上的很多台机器,都预装了Dokku。Dokku非常像Heroku,但是当你有复杂的项目需要调整配置参数或者是需要特殊的依赖时,它就不能胜任了。我们有一个应用,它需要对图片进行多次转换,我们把我们Rails应用的托管到基于Dokku的Docker容器,但是无法安装一个适合版本的imagemagick到里面。尽管我们还有很多应用运行在Dokku上,但我们还是不得不把一些迁移回Heroku。
### 第3步 - Docker
几个月前,由于开发环境和生产环境的问题重新出现,我决定试试Docker。简单来说,Docker让开发者容器化应用、简化部署。由于一个Docker容器本质上已经包含项目运行所需要的所有依赖,只要它能在你的笔记本上运行地很好,你就能确保它将也能在任何一个别的远程服务器的生产环境上运行,包括Amazon的EC2和DigitalOcean上的VPS。
就我个人的看法来说,Docker 特别有意思的原因是:
* 它促进了模块化和关注点分离:你只需要去考虑应用的逻辑部分(负载均衡:1个容器;数据库:1个容器;web服务器:1个容器);
* 在部署的配置上非常灵活:容器可以被部署在各种硬件上,也可以容易地重新部署在不同的服务器和不同的提供商;
* 它允许非常细粒度地优化应用的运行环境:你可以利用你的容器来创建镜像,所以你有很多选择来配置环境。
它也有一些缺点:
* 它的学习曲线非常的陡峭(这是从一个软件开发者的角度来看,而不是经验丰富的运维人员);
* 搭建环境不简单,尤其是还需要自己搭建一个私有的registry/repository (后面有关于它的详细内容)。
下面是一些提示。这个系列的最后一周,我将把他们和一些新的放在一起。
---
在下面的文章中,我们将看到如何建立一个半自动化的基于Docker的部署系统。
* [建立私有的Docker registry](/article-5379-1.html)
* [自动化部署基于 Docker 的 Rails 应用](/article-5408-1.html)
---
via: <http://cocoahunter.com/2015/01/23/docker-1/>
作者:[Michelangelo Chasseur](http://cocoahunter.com/author/michelangelo/) 译者:[mtunique](https://github.com/mtunique) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 302 | Found | null |
5,340 | Picty:让图片管理变简单 | http://www.unixmen.com/picty-managing-photos-made-easy/ | 2015-04-27T14:16:11 | [
"Picty",
"图片管理"
] | https://linux.cn/article-5340-1.html | ![](/data/attachment/album/201504/27/141615z9ch5kddkefuto8d.png)
### 关于Picty
**Picty**是个免费,简单,却强大的照片收藏管理器,它可以帮助你管理你的照片。它是围绕着**元数据**管理和图像**无损**处理设计的。Picty目前同时支持在线(基于网页的)和离线(本地的)收藏集。在本地的收藏集中,图片将被保存在一个本地的文件夹及其子文件夹中。为了加快用户主目录里图片的查询速度,它会维持一个数据库。在在线(基于网页的)收藏集中,你可以通过网页浏览器上传并分享图片。拥有适当权限的个人用户可以把图片分享给任何人,而且用户可以同时打开多个收藏集,收藏集也可以分享给多个用户。有个简单的界面可以通过传输插件在收藏集之间传输图片。
你可以从你的相机或任何设备中下载任何数量的照片。除此之外,Picty允许你在下载前浏览在你相机里的图片集。Picty是个轻量级的应用,界面清爽。它支持Linux和Windows平台。
### 功能
* 支持大相片集(20000张以上)。
* 同时打开多个收藏集,还可以在它们之间传照片。
* 收藏集包括:
+ 本地文件系统中保存图片的文件夹。
+ 相机、电话及其他媒体设备中的图片。
+ 图片保存服务(目前支持Flickr)
* Picty不是把相片“导入”到它的数据库中,它仅仅提供了一个界面来访问它们,不管它们保存在哪。为了保持迅速的反应以及能使你在离线时浏览图片的能力,Picty会保存缩略图和元数据的缓存。
* 以业界标准格式Exif、IPTC和Xmp读写元数据。
* 无损的方法:
+ Picty把所有改变包括图像编辑以元数据的方式写入。例如,一个图片可以以任何方式剪切保存,原来的图像仍然保存在该文件里。
+ 修改会保存在Picty的收藏集缓存中直到你把你对元数据的修改保存到图片中,所以你能很容易撤销你不喜欢的未保存的修改。
* 基本图片编辑功能:
+ 目前支持基本的图像增强,如亮度、对比度、色彩、剪切以及矫正。
+ 将要推出一些工具改进及更多工具。(红眼消除、拉伸、弯曲、噪声消除)
* 图片标签:
+ 使用标准的IPTC和Xmp关键词为图片做标签。
+ 一个树状标签图让你能很容易的管理标签和在收藏集内导航。
* 文件夹视图:
+ 按照目录的结构对你的图片收藏集进行导航
* 支持多屏显示
+ Picty可以设置成让你在一个屏幕上浏览你的收藏集同时在另一个屏幕上全屏显示图片。
* 可个性化
+ 可以为外部工具创建快捷方式
+ 支持插件——目前提供的功能中有许多(标签和文件夹视图以及所有的图片编辑工具)都可以通过插件提供。
+ 使用Python编写——内置电池(batteries included)!
### 安装方法
#### 1、从PPA安装
Picty开发人员为Ubuntu这样的基于 Debian的发行版创建了一个PPA,让安装更简单。
要在Ubuntu和它的衍生版上安装,请运行以下命令:
```
sudo add-apt-repository ppa:damien-moore/ppa
sudo apt-get update
sudo apt-get install picty
```
#### 2、从源文件安装
此外,你还可以从源文件安装。首先安装如下依赖项。
```
sudo apt-get install bzr python-pyinotify python-pyexiv2 python-gtk2 python-gnome2 dcraw python-osmgpsmap python-flickrapi
```
然后,使用下面这个命令得到最新版本:
```
bzr branch lp:picty
```
要运行Picty,先转到Picty所在的目录,然后输入:
```
cd picty
bin/picty
```
要想更新到最新版,请运行:
```
cd picty
bzr pull
```
### 使用方法
可以从目录或Unity Dash启动Picty。
![picty_001](/data/attachment/album/201504/27/141617yz92390tr2zmggms.png)
你可以选择已存在的收藏集、设备或目录。这里让我们创建一个**新收藏集** ,请先点击新收藏集(New Collection)按钮。进入收藏集,然后浏览到你保存图片的地方。最后,点击**创建(Create)**按钮。
![Create a Collection_001](/data/attachment/album/201504/27/141618whbnn6e606q9v20h.png)
![picty_002](/data/attachment/album/201504/27/141631ctqqtqo3dqmii3aa.png)
你可以对每张图片进行修改,旋转,添加/移除标签,设置描述。只需右击任何一个图片然后爱做什么做什么。
访问下面这个Google组可以得到更多关于Picty相片管理器的信息和支持。
* <http://groups.google.com/group/pictyphotomanager>
干杯!
---
via: <http://www.unixmen.com/picty-managing-photos-made-easy/>
作者:[SK](http://www.unixmen.com/author/sk/) 译者:[H-mudcup](https://github.com/H-mudcup) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,341 | 安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(一) | http://www.tecmint.com/things-to-do-after-minimal-rhel-centos-7-installation/ | 2015-04-27T15:19:00 | [
"CentOS 7",
"RHEL 7"
] | https://linux.cn/article-5341-1.html | ![](/data/attachment/album/201504/27/151948jz881a61rj66up58.png)
CentOS 是一个工业标准的 Linux 发行版,是红帽企业版 Linux 的衍生版本。你安装完后马上就可以使用,但是为了更好地使用你的系统,你需要进行一些升级、安装新的软件包、配置特定服务和应用程序等操作。
这篇文章介绍了 “安装完 RHEL/CentOS 7 后需要做的 30 件事情”。阅读帖子的时候请先完成 RHEL/CentOS 最小化安装,这是首选的企业和生产环境。如果还没有,你可以按照下面的指南,它会告诉你两者的最小化安装方法。
* [最小化安装 CentOS 7](http://www.tecmint.com/centos-7-installation/)
* [最小化安装 RHEL 7](http://www.tecmint.com/redhat-enterprise-linux-7-installation/)
我们会基于工业标准的需求来介绍以下列出的这些重要工作。我们希望这些东西在你配置服务器的时候能有所帮助。
1. 注册并启用红帽订阅
2. 使用静态 IP 地址配置网络
3. 设置服务器的主机名称
4. 更新或升级最小化安装的 CentOS
5. 安装命令行 Web 浏览器
6. 安装 Apache HTTP 服务器
7. 安装 PHP
8. 安装 MariaDB 数据库
9. 安装并配置 SSH 服务器
10. 安装 GCC (GNU 编译器集)
11. 安装 Java
12. 安装 Apache Tomcat
13. 安装 Nmap 检查开放端口
14. 配置防火墙
15. 安装 Wget
16. 安装 Telnet
17. 安装 Webmin
18. 启用第三方库
19. 安装 7-zip 工具
20. 安装 NTFS-3G 驱动
21. 安装 Vsftpd FTP 服务器
22. 安装和配置 sudo
23. 安装并启用 SELinux
24. 安装 Rootkit Hunter
25. 安装 Linux Malware Detect (LMD)
26. 用 Speedtest-cli 测试服务器带宽
27. 配置 Cron 作业
28. 安装 Owncloud
29. 启用 VirtualBox 虚拟化
30. 用密码保护 GRUB
(LCTT 译注:关于 CentOS/RHEL 7的更多信息,请参考专题:<http://www.linux.cn/topic-centos7.html> )
### 1. 注册并启用红帽订阅
RHEL 7 最小化安装完成后,就应该注册并启用系统红帽订阅库, 并执行一个完整的系统更新。这只当你有一个可用的红帽订阅时才能有用。你要注册才能启用官方红帽系统库,并时不时进行操作系统更新。(LCTT 译注:订阅服务是收费的)
在下面的指南中我们已经包括了一个如何注册并激活红帽订阅的详细说明。
* [在 RHEL 7 中注册并启用红帽订阅](http://www.tecmint.com/enable-redhat-subscription-reposiories-and-updates-for-rhel-7/)
**注意**: 这一步仅适用于有一个有效订阅的红帽企业版 Linux。如果你用的是 CentOS 服务器,请查看后面的章节。
### 2. 使用静态 IP 地址配置网络
你第一件要做的事情就是为你的 CentOS 服务器配置静态 IP 地址、路由以及 DNS。我们会使用 ip 命令代替 ifconfig 命令。当然,ifconfig 命令对于大部分 Linux 发行版来说还是可用的,还能从默认库安装。
```
# yum install net-tools [它提供 ifconfig 工具,如果你不习惯 ip 命令,还可以使用它]
```
![在 Linux 上安装 ifconfig](/data/attachment/album/201504/27/151951oeeewafswse9rt9f.jpg)
(LCTT 译注:关于 ip 命令的使用,请参照:<http://www.linux.cn/article-3631-1.html> )
但正如我之前说,我们会使用 ip 命令来配置静态 IP 地址。所以,确认你首先检查了当前的 IP 地址。
```
# ip addr show
```
![在 CentOS 查看 IP 地址](/data/attachment/album/201504/27/151951l7a3ba7m5fm421mt.jpg)
现在用你的编辑器打开并编辑文件 /etc/sysconfig/network-scripts/ifcfg-enp0s3 (LCTT 译注:你的网卡名称可能不同,如果希望修改为老式网卡名称,参考:<http://www.linux.cn/article-4045-1.html> )。这里,我使用 vi 编辑器,另外你要确保你是 root 用户才能保存更改。
```
# vi /etc/sysconfig/network-scripts/ifcfg-enp0s3
```
我们会编辑文件中的四个地方。注意下面的四个地方并保证不碰任何其它的东西。也保留双引号,在它们中间输入你的数据。
```
IPADDR = "[在这里输入你的静态 IP]"
GATEWAY = "[输入你的默认网关]"
DNS1 = "[你的DNS 1]"
DNS2 = "[你的DNS 2]"
```
更改了 ‘ifcfg-enp0s3’ 之后,它看起来像下面的图片。注意你的 IP,网关和 DNS 可能会变化,请和你的 ISP(译者注:互联网服务提供商,即给你提供接入的服务的电信或 IDC) 确认。保存并退出。
![网络详情](/data/attachment/album/201504/27/151952rjc15ub2ojifg9zn.jpg)
*网络详情*
重启网络服务并检查 IP 是否和分配的一样。如果一切都顺利,用 Ping 查看网络状态。
```
# service network restart
```
![重启网络服务](/data/attachment/album/201504/27/151952i6v6rxxezvxq16z6.jpg)
*重启网络服务*
重启网络后,确认检查了 IP 地址和网络状态。
```
# ip addr show
# ping -c4 google.com
```
![验证 IP 地址](/data/attachment/album/201504/27/151953ml62hlhry2v0dlg0.jpg)
*验证 IP 地址*
![检查网络状态](/data/attachment/album/201504/27/151953t9kunzlkypyrly5d.jpg)
*检查网络状态*
(LCTT 译注:关于设置静态 IP 地址的更多信息,请参照:<http://www.linux.cn/article-3977-1.html> )
### 3. 设置服务器的主机名称
下一步是更改 CentOS 服务器的主机名称。查看当前分配的主机名称。
```
# echo $HOSTNAME
```
![查看系统主机名称](/data/attachment/album/201504/27/151953iyz7224vn46t362r.jpg)
*查看系统主机名称*
要设置新的主机名称,我们需要编辑 ‘/etc/hostsname’ 文件并用想要的名称替换旧的主机名称。
```
# vi /etc/hostname
```
![在 CentOS 中设置主机名称](/data/attachment/album/201504/27/151954ec4q5i5zphsil445.jpg)
*在 CentOS 中设置主机名称*
设置完了主机名称之后,务必注销后重新登录确认主机名称。登录后检查新的主机名称。
```
$ echo $HOSTNAME
```
![确认主机名称](/data/attachment/album/201504/27/151954lb4pd12v448zm4bs.jpg)
*确认主机名称*
你也可以用 ‘hostname’ 命令查看你当前的主机名。
```
$ hostname
```
(LCTT 译注:关于设置静态、瞬态和灵活主机名的更多信息,请参考:<http://www.linux.cn/article-3937-1.html> )
### 4. 更新或升级最小化安装的 CentOS
这样做除了更新安装已有的软件最新版本以及安全升级,不会安装任何新的软件。总的来说更新(update)和升级(upgrade)是相同的,除了事实上 升级 = 更新 + 更新时进行废弃处理。
```
# yum update && yum upgrade
```
![更新最小化安装的 CentOS 服务器](/data/attachment/album/201504/27/151955xcnq8vais7vvuys8.jpg)
*更新最小化安装的 CentOS 服务器*
**重要**: 你也可以运行下面的命令,这不会弹出软件更新的提示,你也就不需要输入 ‘y’ 接受更改。
然而,查看服务器上会发生的变化总是一个好主意,尤其是在生产中。因此使用下面的命令虽然可以为你自动更新和升级,但并不推荐。
```
# yum -y update && yum -y upgrade
```
### 5. 安装命令行 Web 浏览器
大部分情况下,尤其是在生产环境中,我们通常用没有 GUI 的命令行安装 CentOS,在这种情况下我们必须有一个能通过终端查看网站的命令行浏览工具。为了实现这个目的,我们打算安装名为 ‘links’ 的著名工具。
```
# yum install links
```
![安装命令行浏览器](/data/attachment/album/201504/27/151955rffl5ihb5s5cjknr.jpg)
*Links: 命令行 Web 浏览器*
请查看我们的文章 [用 links 工具命令行浏览 Web](http://www.tecmint.com/command-line-web-browsers/) 了解用 links 工具浏览 web 的方法和例子。
### 6. 安装 Apache HTTP 服务器
不管你因为什么原因使用服务器,大部分情况下你都需要一个 HTTP 服务器运行网站、多媒体、用户端脚本和很多其它的东西。
```
# yum install httpd
```
![在 CentOS 上安装 Apache](/data/attachment/album/201504/27/151956k9sc9h6quq5jdsb6.jpg)
*安装 Apache 服务器*
如果你想更改 Apache HTTP 服务器的默认端口号(80)为其它端口,你需要编辑配置文件 ‘/etc/httpd/conf/httpd.conf’ 并查找以下面开始的行:
```
LISTEN 80
```
把端口号 ‘80’ 改为其它任何端口(例如 3221),保存并退出。
![在 CentOS 上更改 Apache 端口](/data/attachment/album/201504/27/151956inck0k662l66kc88.jpg)
*更改 Apache 端口*
增加刚才分配给 Apache 的端口通过防火墙,然后重新加载防火墙。
允许 http 服务通过防火墙(永久)。
```
# firewall-cmd –add-service=http
```
允许 3221 号端口通过防火墙(永久)。
```
# firewall-cmd –permanent –add-port=3221/tcp
```
重新加载防火墙。
```
# firewall-cmd –reload
```
(LCTT 译注:关于 firewall 的进一步使用,请参照:<http://www.linux.cn/article-4425-1.html> )
完成上面的所有事情之后,是时候重启 Apache HTTP 服务器了,然后新的端口号才能生效。
```
# systemctl restart httpd.service
```
现在添加 Apache 服务到系统层使其随系统自动启动。
```
# systemctl start httpd.service
# systemctl enable httpd.service
```
(LCTT 译注:关于 systemctl 的进一步使用,请参照:<http://www.linux.cn/article-3719-1.html> )
如下图所示,用 links 命令行工具 验证 Apache HTTP 服务器。
```
# links 127.0.0.1
```
![验证 Apache 状态](/data/attachment/album/201504/27/151957kcjayjmqrr0czwmw.jpg)
*验证 Apache 状态*
---
via: <http://www.tecmint.com/things-to-do-after-minimal-rhel-centos-7-installation/>
作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,342 | 安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(二) | http://www.tecmint.com/things-to-do-after-minimal-rhel-centos-7-installation/2/ | 2015-04-28T10:06:00 | [
"CentOS 7",
"RHEL 7"
] | https://linux.cn/article-5342-1.html | ![](/data/attachment/album/201504/27/151948jz881a61rj66up58.png)
### 7. 安装 PHP
PHP 是用于 web 基础服务的服务器端脚本语言。它也经常被用作通用编程语言。在最小化安装的 CentOS 中安装 PHP:
```
# yum install php
```
安装完 php 之后,确认重启 Apache 服务以便在 Web 浏览器中渲染 PHP。
```
# systemctl restart httpd.service
```
下一步,通过在 Apache 文档根目录下创建下面的 php 脚本验证 PHP。
```
# echo -e "<?php\nphpinfo();\n?>" > /var/www/html/phpinfo.php
```
现在在 Linux 命令行中查看我们刚才创建的 PHP 文件(phpinfo.php)。
```
# php /var/www/html/phpinfo.php
或者
# links http://127.0.0.1/phpinfo.php
```
![验证 PHP](/data/attachment/album/201504/27/160953cmpmppl2bloms2ay.jpg)
*验证 PHP*
### 8. 安装 MariaDB 数据库
MariaDB 是 MySQL 的一个分支。RHEL 以及它的衍生版已经从 MySQL 迁移到 MariaDB。这是一个主流的数据库管理系统,也是一个你必须拥有的工具。不管你在配置怎样的服务器,或迟或早你都会需要它。在最小化安装的 CentOS 上安装 MariaDB,如下所示:
```
# yum install mariadb-server mariadb
```
![安装 MariaDB 数据库](/data/attachment/album/201504/27/160954pkzo6xji6rocxwj7.jpg)
*安装 MariaDB 数据库*
启动 MariaDB 并配置它开机时自动启动。
```
# systemctl start mariadb.service
# systemctl enable mariadb.service
```
允许 mysql(mariadb) 服务通过防火墙(LCTT 译注:如果你的 MariaDB 只用在本机,则务必不要设置防火墙允许通过,使用 UNIX Socket 连接你的数据库;如果需要在别的服务器上连接数据库,则尽量使用内部网络,而不要将数据库服务暴露在公开的互联网上。)
```
# firewall-cmd –add-service=mysql
```
现在是时候确保 MariaDB 服务器安全了(LCTT 译注:这个步骤主要是设置 mysql 管理密码)。
```
# /usr/bin/mysql_secure_installation
```
![保护 MariaDB 数据库](/data/attachment/album/201504/27/160955abqcbbp0qb9dbf3s.jpg)
*保护 MariaDB 数据库*
请阅读:
* [在 CentOS 7.0 上安装 LAMP (Linux, Apache, MariaDB, PHP/PhpMyAdmin)](http://www.tecmint.com/install-lamp-in-centos-7/)
* [在 CentOS 7.0 上创建 Apache 虚拟主机](http://www.tecmint.com/apache-virtual-hosting-in-centos/)
### 9. 安装和配置 SSH 服务器
SSH 即 Secure Shell,是 Linux 远程管理的默认协议。 SSH 是随最小化 CentOS 服务器中安装运行的最重要的软件之一。
检查当前已安装的 SSH 版本。
```
# SSH -V
```
![检查 SSH 版本](/data/attachment/album/201504/27/160955aaxr9rszr9ryr7ax.jpg)
*检查 SSH 版本*
使用更安全的 SSH 协议,而不是默认的协议,并更改端口号进一步加强安全。编辑 SSH 的配置文件 ‘/etc/ssh/ssh\_config’。
去掉下面行的注释或者从协议行中删除 1,然后行看起来像这样(LCTT 译注: SSH v1 是过期废弃的不安全协议):
```
# Protocol 2,1 (原来)
Protocol 2 (现在)
```
这个改变强制 SSH 使用 协议 2,它被认为比协议 1 更安全,同时也确保在配置中更改端口号 22 为其它。
![保护 SSH 登录](/data/attachment/album/201504/27/160955na9cp0f161al1ju6.jpg)
*保护 SSH 登录*
取消 SSH 中的‘root login’, 只允许通过普通用户账号登录后才能使用 su 切换到 root,以进一步加强安全。请打开并编辑配置文件 ‘/etc/ssh/sshd\_config’ 并更改 PermitRootLogin yes 为 PermitRootLogin no。
```
# PermitRootLogin yes (原来)
PermitRootLogin no (现在)
```
![取消 SSH Root 登录](/data/attachment/album/201504/27/160956m9o99z1zqy79qr5r.jpg)
*取消 SSH Root 直接登录*
最后,重启 SSH 服务启用更改。
```
# systemctl restart sshd.service
```
请查看:
* [加密和保护 SSH 服务器的 5 个最佳实践](http://www.tecmint.com/5-best-practices-to-secure-and-protect-ssh-server/)
* [5 个简单步骤实现使用 SSH Keygen 无密码登录 SSH](http://www.tecmint.com/ssh-passwordless-login-using-ssh-keygen-in-5-easy-steps/)
* [在 PuTTY 中实现 “无密码 SSH 密钥验证”](http://www.tecmint.com/ssh-passwordless-login-with-putty/)
### 10. 安装 GCC (GNU 编译器集)
GCC 即 GNU 编译器集,是一个 GNU 项目开发的支持多种编程语言的编译系统(LCTT 译注:在你需要自己编译构建软件时需要它)。在最小化安装的 CentOS 没有默认安装。运行下面的命令安装 gcc 编译器。
```
# yum install gcc
```
![在 CentOS 上安装 GCC](/data/attachment/album/201504/27/160956uxzecrzlsrhxtyos.jpg)
*在 CentOS 上安装 GCC*
检查安装的 gcc 版本。
```
# gcc --version
```
![检查 GCC 版本](/data/attachment/album/201504/27/160957sykk4j8xq1ougfi4.jpg)
*检查 GCC 版本*
### 11. 安装 Java
Java是一种通用的基于类的,面向对象的编程语言。在最小化 CentOS 服务器中没有默认安装(LCTT 译注:如果你没有任何 Java 应用,可以不用装它)。按照下面命令从库中安装 Java。
```
# yum install java
```
![在 CentOS 上安装 Java](/data/attachment/album/201504/27/160957ecefff8tskzucsb8.jpg)
*安装 Java*
检查安装的 Java 版本。
```
# java -version
```
![检查 Java 版本](/data/attachment/album/201504/27/160957vhc33wkhpr3t9vwg.jpg)
*检查 Java 版本*
---
via: <http://www.tecmint.com/things-to-do-after-minimal-rhel-centos-7-installation/2/>
作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,348 | GNOME-Pie 0.6.1 应用启动器发布,酷炫新特性[多图+视频] | http://news.softpedia.com/news/GNOME-Pie-0-6-Application-Launcher-Released-with-Many-New-Features-Video-478914.shtml | 2015-04-28T13:37:00 | [
"GNOME-Pie"
] | https://linux.cn/article-5348-1.html | **Simon Schneegans 高兴地[宣布](http://simmesimme.github.io/news/2015/04/18/gnome-pie-061/)他的 GNOME-Pie 0.6.1 已可供下载使用。GNOME-Pie 是一个可以在包括 GNOME 和 Unity 在内的多种桌面环境中作为应用启动器的小工具。**
![GNOME-Pie](/data/attachment/album/201504/28/133705rs36o6n66jj1cl66.jpg)
GNOME-Pie 0.6.1 看起来是个主要版本更新,引入了许多新特性,比如支持半个或四分之一圆,可选择每个启动器想要的形状,也可以自动根据位置调整形状(圆形,半个或四分之一圆),以及多彩的动态图标。
此外,软件现在还适配若干类dock应用,包括elementary OS 的 Plank,Ubuntu 的 Unity,以及通用的 Docky。一些已有的 GNOME-Pie 主题也已更新,还引入了全新的为半圆启动器布局设计的主题 Simple。
“Gnome-Pie 新版本已发布,实际上已经发布了两个版本:0.6.0和之后的0.6.1,修复了[issue #73](https://github.com/Simmesimme/Gnome-Pie/issues/73),”Simon Schneegans 在发布声明上说道,“新版本修复了许多 bug,还带来了许多新特性!”
### 现在就可在Ubuntu上安装GNOME-Pie
Ubuntu 及其衍生版用户现在就可通过 Simon Schneegans 的PPA源安装 GNOME-Pie。只需打开终端,运行下列命令即可。GNOME-Pie 适用于 Ubuntu 14.04 LTS,14.10和15.04。
```
sudo add-apt-repository ppa:simonschneegans/testing
sudo apt-get update
sudo apt-get install gnome-pie
```
其他 GNU/Linux 发行版用户可以从官网下载 GNOME-Pie 0.6.1 的源代码,或者近期在系统的软件源中搜索新版GNOME-Pie。
![GNOME-Pie](/data/attachment/album/201504/28/133705c5j8h8zo4xhkf483.jpg)
![GNOME-Pie](/data/attachment/album/201504/28/133706v6vp6nye6psob8vv.jpg)
![GNOME-Pie](/data/attachment/album/201504/28/133706rw00izvfrzhitt0r.jpg)
![GNOME-Pie](/data/attachment/album/201504/28/133706sfeerh5uvvasae9m.jpg)
![GNOME-Pie](/data/attachment/album/201504/28/133706iylumfpaxmmmsuek.jpg)
![GNOME-Pie](/data/attachment/album/201504/28/133706ld6xyqp1786gvyuy.jpg)
![GNOME-Pie](/data/attachment/album/201504/28/133706dzcnsn6p9notj555.jpg)
![GNOME-Pie](/data/attachment/album/201504/28/133706tyrjb7bcbcn9rby0.jpg)
---
via: <http://news.softpedia.com/news/GNOME-Pie-0-6-Application-Launcher-Released-with-Many-New-Features-Video-478914.shtml>
译者:[alim0x](https://github.com/alim0x) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,349 | 15 个‘ls’命令的面试问题(一) | http://www.tecmint.com/ls-command-interview-questions/ | 2015-04-28T14:08:00 | [
"面试",
"命令",
"ls"
] | https://linux.cn/article-5349-1.html | Unix或类Unix系统中的“文件列表”命令“ls”是最基础并且使用的最广泛的命令行中工具之一。它是一个POSIX兼容工具,在GNU基本工具集以及BSD各种变体上都可以使用。“ls”命令可以结合大量的选项来达到想要的结果。
这篇文章的目的在于通过相关的样例来深入讨论文件列表命令。
![15 ls Command Questions](/data/attachment/album/201504/28/140834nqjfd1715c87fa16.png)
*15个“ls”命令问题。*
### 1. 如何列出目录中的文件?
答:linux文件列表命令“ls”就是干这个的。
```
# ls
```
![List Files](/data/attachment/album/201504/28/140835zzkm2iq9zxlc2cc4.gif)
*列出文件*
同时,我们也可以使用“echo(回显)”命令与一个通配符(\*)参数来雷锤目录中的所有文件。
```
# echo *
```
![List All Files](/data/attachment/album/201504/28/140835k2ox1odudic7iqzq.gif)
*列出所有的文件。*
### 2. 如何只使用echo命令来只列出所有目录?
```
# echo */
```
![List All Directories](/data/attachment/album/201504/28/140836znlg02oio02o0gjg.gif)
*列出所有的目录*
### 3. 怎样列出一个目录中的所有文件, 包括隐藏的以“.”开头的文件?
答:我们需要将“-a”选项与“ls”命令一起使用。
```
# ls -a
```
![List All Hidden Files](/data/attachment/album/201504/28/140836rppr3cjbpz0p7uqc.gif)
*列出所有的隐藏文件。*
### 4. 如何列出目录中除了 “当前目录 .”和“父目录 ..”之外的所有文件,包括隐藏文件?
答: 我们需要将“-A”选项与“ls”命令一起使用
```
# ls -A
```
![Do Not List Implied](/data/attachment/album/201504/28/140836nkmva3wn3k3kzkka.gif)
*别列出指代当前目录和父目录的文件*
### 5. 如何使用长格式打印出当前目录内容?
答: 我们需要将“-l”选项与“ls”命令一起使用。
```
# ls -l
```
![List Files Long](/data/attachment/album/201504/28/140900mcn225w422846w3w.gif)
*列出文件的长格式。*
上面的样例中,其输出结果看起来向下面这样。
```
drwxr-xr-x 5 avi tecmint 4096 Sep 30 11:31 Binary
```
上面的drwxr-xr-x 是文件的权限,分别代表了文件所有者,所属组以及“整个世界”。 所有者具有读(r),写(w)以及执行(x)等权限。 该文件所属组具有读(r)和执行(x)但是没有写的权限,整个世界的其他可以访问到该文件的人也具有相同权限。
* 开头的‘d’意味着这是一个目录
* 数字'5'表示链接数为5
* 文件 Binary归属于用户 “avi”以及用户组 "tecmint"
* Sep 30 11:31 表示文件最后一次的访问日期与时间。
### 6. 假如让你来将目录中的内容以长格式列表打印,并且显示出隐藏的“点文件”,你会如何实现?
答: 我们需要同时将"-a"和"-l"选项与“ls”命令一起使用(LCTT 译注:单字符选项可以合并写)。
```
# ls -la
```
![Print Content of Directory](/data/attachment/album/201504/28/140905r252wff8ibwfvk3q.gif)
*打印目录内容*
此外,如果我们不想列出“当前目录”和"父目录",可以将“-A”和“-l”选项同“ls”命令一起使用。
```
# ls -lA
```
### 7. 如何找到每个文件的创建者?
答: 我们需要结合 “--author”和 "-l"选项来打印出每个文件的创建者。
```
# ls --author -l
```
![List Author Files](/data/attachment/album/201504/28/140906aabznw8bh88anji3.gif)
*列出文件创建者。*
### 8. 如何对用转义字符打印出非显示字符?
答:我们只需要使用“-b”选项来对非显示字符进行转义打印
```
# ls -b
```
![Print Escape Character](/data/attachment/album/201504/28/140906go2a9qo2mh7md2jy.gif)
### 9. 用指定特定的单位格式来列出文件和目录的大小,你会如何实现?
答: 在此可以同时使用选项“-block-size=scale”和“-l”,但是我们需要用特定的单位如M,K等来替换‘scale’参数。
```
# ls --block-size=M -l
# ls --block-size=K -l
```
![List File Scale Format](/data/attachment/album/201504/28/140907i95rvr7n4z564r1a.gif)
*列出文件大小单位格式。*
### 10. 列出目录中的文件,但是不显示备份文件,即那些文件名以‘~’结尾的文件
答: 选项‘-B’赶来救驾。
```
# ls -B
```
![List File Without Backup](/data/attachment/album/201504/28/140907eoede5eafy8tv8oz.gif)
*列出非备份文件*
### 11. 将目录中的所有文件按照名称进行排序,并显示其最后修改时间信息?
答: 为了实现这个需求,我们需要同时将“-c”和"-l"选项与命令一起使用。
```
# ls -cl
```
![Sort Files](/data/attachment/album/201504/28/140908g6jprj5jwbecw5e4.gif)
*文件排序*
### 12. 将目录中的文件按照修改时间进行排序,并显示相关联的信息。
答: 我们需要同时使用3个选项:'-l','-t','-c' 来对文件使用修改时间排序,最新的修改时间排在最前。
```
# ls -ltc
```
![Sort Files by Modification](/data/attachment/album/201504/28/140909xlz208bll2df0202.gif)
*按照修改时间对文件排序。*
### 13. 如何控制‘ls’命令的输出颜色的有无?
答: 需要使用选项‘--color=parameter’,参数具有三种不同值,“auto(自动)”,“always(一直)”,“never(无色)”。
```
# ls --color=never
# ls --color=auto
# ls --color=always
```
![ls Colorful Output](/data/attachment/album/201504/28/140909zfhufllj00bb8rq2.gif)
*ls的输出颜色*
### 14. 假如只需要列出目录本身,而不是目录的内容,你会如何做?
答:在此“-d”选项就会显得很顺手。
```
# ls -d
```
![List Directory Entries](/data/attachment/album/201504/28/140909j3nfew6q71hh411h.gif)
*列出目录本身*
### 15. 为长格式列表命令"ls -l"创建一个别名“ll”,并将其结果输出到一个文件而不是标准输出中。
答:在上述的这个场景中,我们需要将别名添加到.bashrc文件中,然后使用重定向操作符将输出写入到文件而不是标准输出中。我们将会使用编辑器nano。
```
# ls -a
# nano .bashrc
# ll >> ll.txt
# nano ll.txt
```
![Create Alias for ls command](/data/attachment/album/201504/28/140911v8zzfbrr8qzzcruz.gif)
*为ls命令创建别名。*
先到此为止,别忘了在下面的评论中提出你们的宝贵意见,我会再次带着另外的有趣的文章在此闪亮登场。
### 参考阅读:
* [10 个‘ls’命令的面试问题(二)](http://www.tecmint.com/ls-interview-questions/)
* [Linux中15个基础的'ls'命令](http://linux.cn/article-5109-1.html)
---
via: <http://www.tecmint.com/ls-command-interview-questions/>
作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[theo-l](https://github.com/theo-l) 校对:[校对者ID](https://github.com/%E6%A0%A1%E5%AF%B9%E8%80%85ID)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,350 | 10 个‘ls’命令面试的问题(二) | http://www.tecmint.com/ls-interview-questions/ | 2015-04-29T08:40:00 | [
"ls",
"面试",
"命令"
] | https://linux.cn/article-5350-1.html | 这是关于文件列表命令的第二篇文章,继续探讨‘ls’命令的其他方面。该系列的第一篇文章受到了社区的高度关注,如果你错过了该系列的第一部分,可以访问以下地址:
* [15 个‘ls’命令的面试问题(一)](http://linux.cn/article-5349-1.html)
这篇文章通过样例来很好地展现‘ls’命令的深入应用,我们加倍小心地来写这篇文章来保持其简洁可理解性,同时又能提供最全面的服务。
![10 Interview Questions on ls Command](/data/attachment/album/201504/28/144458nffwcu3u7zhbmgw3.jpg)
*10 ‘ls’ 命令面试的问题*
### 16. 假如你想要以长列表的形式列出目录中的内容,但是不打印文件创建者名称以及文件所属组。看看输出有何不同之处。
a. ls 命令在与‘-l’选项一起使用时会将文件以长列表格式输出。
```
# ls -l
```
![List Files in- Long List Format](/data/attachment/album/201504/28/144459l1zr1eupu04k4ch4.gif)
*以长格式列出文件*
b. ls 命令在与‘-l’和‘--author’一起使用时,会将文件以长列表格式输出并带有文件创建者的名称信息。
```
# ls -l --author
```
![List Files By Author](/data/attachment/album/201504/28/144500tvg1fwg70h777ihy.gif)
*列出文件的创建者*
c. ls 命令在与‘-g’选项 一起将会列出文件名但是不带属主名称。
```
# ls -g
```
![List Files Without Printing Owner Name](/data/attachment/album/201504/28/144500jycnpkxm2befkcbb.gif)
*列出文件但不列出属主*
d. ls 命令在与'-G'和‘-l’选项一起将会使用长列表格式列出文件名称但是不带文件所属组名称。
```
# ls -Gl
```
![List Files Without Printing Group](/data/attachment/album/201504/28/144500ghhae8eurnnhh89h.gif)
*列出文件但是不列出所属组*
### 17. 使用易读格式打印出当前目录中的文件以及文件夹的大小,你会如何做?
这里我们需要使用'-h'选项(人类可阅读的、易读的)同‘-l’或‘-s’选项与ls命令一起使用来得到想要的输出。
```
# ls -hl
```
![List Files in Human Readable Format](/data/attachment/album/201504/28/144501soucnuxpxfpbrups.gif)
*以易读格式的长列表列出文件*
```
# ls -hs
```
![List File Sizes in Long List Format](/data/attachment/album/201504/28/144501h07ujw9wkusdt0s7.gif)
*以易读格式的短列表列出文件*
**注意**: ‘-h’选项使用1024(计算机中的标准)的幂,文件或文件夹的大小分别以K,M和G作为输出单位。
### 18. 既然‘-h’选项是使用1024的幂作为标准来输出大小,那么ls命令是否还支持其他的幂值呢?
存在一个选项 ‘--si’与选项‘-h’相似,不同之处在于前者以使用1000的幂,后者使用1024的幂。
```
# ls --si
```
所以'--si'也可以与‘-l’选项一起使用来按照1000的幂来输出文件夹的大小,并且以长列表格式显示。
```
# ls --si -l
```
(LCTT 译注:此处原文参数有误,附图也不对,因此删除之。--si 参数是双连线参数,而且有的版本的 ls 并不支持该参数)
### 19. 假如要你使用逗号‘,’作为分隔符来打印一个目录中的内容,可以吗? 对于长列表形式也可行吗?
当然!linux的ls命令当与其选项‘-m’一起使用时可以在打印目录内容时以逗号‘,’分割。由于逗号分割的内容是水平填充的,ls命令不能在垂直列出内容时使用逗号来分割内容。
```
# ls -m
```
![Print Contents of Directory by Comma](/data/attachment/album/201504/28/144502twqls8i1zv10wf0x.gif)
*以逗号分隔显示内容*
当使用长列表格式时,‘-m’选项就没有什么效果了。
```
# ls -ml
```
![Listing Content Horizontally](/data/attachment/album/201504/28/144502ybvhqldpr2qqsbgl.gif)
*长列表不能使用逗号分隔列表*
### 20. 有办法将目录的内容逆序打印出来吗?
可以!上面的情形可以轻松地通过'-r'选项搞定,该选项将输出顺序倒置。这个选项也可以与‘-l’选项一起使用。
```
# ls -r
```
![List Content in Reverse Order](/data/attachment/album/201504/28/144502q76lj6ogz6hcfofz.gif)
*逆序列出*
```
# ls -rl
```
![Long List Content in Reverse Order](/data/attachment/album/201504/28/144503x5f5lxmkq1x5uzmf.gif)
*逆序长列表*
### 21. 如果你被分配一个任务,来递归地打印各个子目录,你会如何应付?注意,只针对子目录而不是文件哦。
小意思!使用“-R”选项就可以轻轻松松拿下,它也可以更进一步地与其他选项如‘-l’和‘-m’选项等组合使用。
```
# ls -R
```
![Print Sub Directories in Recursively](/data/attachment/album/201504/28/144504p6dbxes4zg1bjgy5.gif)
*递归列出子目录*
### 22. 如何按照文件大小对其进行排序?
linux命令行选项'-S'赋予了ls命令这个超能力。按照文件大小从大到小的顺序排序:
```
# ls -S
```
![Sort Files with ls Command](/data/attachment/album/201504/28/144504ittn2png22nkg32k.gif) *按文件大小排序*
按照文件大小从小到大的顺序排序。
```
# ls -Sr
```
![Sort Files in Descending Order](/data/attachment/album/201504/28/144505ttho8fgocuc0hbzm.gif)
*从小到大的排序*
### 23. 按照一行一个文件列出目录中的内容,并且不带额外信息的方式
选项‘-1’在此可以解决这个问题,使用‘-1’选项来使用ls命令可以将目录中的内容按照一行一个文件并且不带额外信息的方式进行输出。
```
# ls -1
```
![List Files Without Information](/data/attachment/album/201504/28/144506wlaezzxn4nzzyk4x.gif)
*不带其他信息,一行一个列出文件*
### 24. 现在委派给你一个任务,你必须将目录中的内容输出到终端而且需要使用双引号引起来,你会如何做?
有一个选项‘-Q’会将ls命令的输出内容用双引号引起来。
```
# ls -Q
```
![Print Files with Double Quotes](/data/attachment/album/201504/28/144506d8rshormsf2fffru.gif)
*输出的文件名用引号引起来*
### 25. 想象一下你正在与一个包含有很多文件和文件夹的目录打交道,你需要使目录名显示在文件名之前,你如何做?
```
# ls --group-directories-first
```
![Print Directories First](/data/attachment/album/201504/28/144507elhcp4cpz4cwp1qw.gif)
*目录优先显示*
先点到为止,我们会马上提供该系列文章的下一部分。别换频道,关注我们。 另外别忘了在下面的评论中提出你们宝贵的反馈信息,喜欢就分享,帮助我们得到更好的传播吧!
---
via: <http://www.tecmint.com/ls-interview-questions/>
作者:[Ravi Saive](http://www.tecmint.com/author/admin/) 译者:[theo-l](https://github.com/theo-l) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,351 | 安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(三) | http://www.tecmint.com/things-to-do-after-minimal-rhel-centos-7-installation/3/ | 2015-04-29T08:02:00 | [
"CentOS 7",
"RHEL 7"
] | https://linux.cn/article-5351-1.html | ![](/data/attachment/album/201504/27/151948jz881a61rj66up58.png)
### 12. 安装 Apache Tomcat
Tomcat 是由 Apache 设计的用来运行 Java HTTP web 服务器的 servlet 容器。按照下面的方法安装 tomcat,但需要指出的是安装 tomcat 之前必须先安装 Java。
```
# yum install tomcat
```
![安装 Apache Tomcat](/data/attachment/album/201504/28/210634gbaidi24e2zctcee.jpg)
*安装 Apache Tomcat*
安装完 tomcat 之后,启动 tomcat 服务。
```
# systemctl start tomcat
```
查看 tomcat 版本。
```
# /usr/sbin/tomcat version
```
![查看 tomcat 版本](/data/attachment/album/201504/28/210635ojtqbbw8lr4qgqu4.jpg)
*查看 tomcat 版本*
允许 tomcat 服务和默认端口(8080) 通过防火墙并重新加载设置。
```
# firewall-cmd –zone=public –add-port=8080/tcp --permanent
# firewall-cmd –reload
```
现在该保护 tomcat 服务器了,添加一个用于访问和管理的用户和密码。我们需要编辑文件 ‘/etc/tomcat/tomcat-users.xml’。查看类似下面的部分:
```
<tomcat-users>
....
</tomcat-users>
<role rolename="manager-gui"/>
<role rolename="manager-script"/>
<role rolename="manager-jmx"/>
<role rolename="manager-status"/>
<role rolename="admin-gui"/>
<role rolename="admin-script"/>
<user username="tecmint" password="tecmint" roles="manager-gui,manager-script,manager-jmx,manager-status,admin-gui,admin-script"/>
</tomcat-users>
```
![保护 Tomcat](/data/attachment/album/201504/28/210637utcxicmabiiie7jj.jpg)
*保护 Tomcat*
我们在这里添加用户 “tecmint” 到 tomcat 的管理员/管理组中,使用 “tecmint” 作为密码。先停止再启动 tomcat 服务以使更改生效,并添加 tomcat 服务到随系统启动。
```
# systemctl stop tomcat
# systemctl start tomcat
# systemctl enable tomcat.service
```
请阅读: [在 RHEL/CentOS 7.0/6.x 中安装和配置 Apache Tomcat 8.0.9](http://www.tecmint.com/install-apache-tomcat-in-centos/)
### 13. 安装 Nmap 监视开放端口
Nmap 网络映射器用来分析网络,通过运行它可以发现网络的映射关系。nmap 并没有默认安装,你需要从库中安装它。
```
# yum install nmap
```
![安装 Nmap 监视工具](/data/attachment/album/201504/28/210640x5c1k5xk5rsosev2.jpg)
*安装 Nmap 监视工具*
列出主机中所有的开放端口以及对应使用它们的服务。
```
# namp 127.0.01
```
!监视开放端口](<http://www.tecmint.com/wp-content/uploads/2015/04/Monitor-Open-Ports.jpeg>)
*监视开放端口*
你也可以使用 firewall-cmd 列出所有端口,但我发现 nmap 更有用。
```
# firewall-cmd –list-ports
```
![在防火墙中检查开放端口](/data/attachment/album/201504/28/210640jbgqeysretwtsc86.jpg)
*在防火墙中检查开放端口*
请阅读: [Nmap 监视开放端口的 29 个有用命令](http://linux.cn/article-2561-1.html)
### 14. 配置 FirewallD
firewalld 是动态管理服务器的防火墙服务。在 CentOS 7 中 Firewalld 移除了 iptables 服务。在红帽企业版 Linux 和它的衍生版中默认安装了 Firewalld。如果有 iptables 的话为了使每个更改生效需要清空所有旧的规则然后创建新规则。
然而用firewalld,不需要清空并重新创建新规则就可以实现更改生效。
检查 Firewalld 是否运行。
```
# systemctl status firewalld
或
# firewall-cmd –state
```
![检查 Firewalld 状态](/data/attachment/album/201504/28/210642o0l0y8ad8nqpnp1w.jpg)
*检查 Firewalld 状态*
获取所有的区域列表。
```
# firewall-cmd --get-zones
```
![检查 Firewalld 区域](/data/attachment/album/201504/28/210643q5p3vuwxq5tqvqwy.jpg)
*检查 Firewalld 区域*
在切换之前先获取区域的详细信息。
```
# firewall-cmd --zone=work --list-all
```
![检查区域详情](/data/attachment/album/201504/28/210643jc1h5hmqr0gdhxqx.jpg)
*检查区域详情*
获取默认区域。
```
# firewall-cmd --get-default-zone
```
![Firewalld 默认区域](/data/attachment/album/201504/28/210644asrtt4u0nsd44tsy.jpg)
*Firewalld 默认区域*
切换到另一个区域,比如 ‘work’。
```
# firewall-cmd --set-default-zone=work
```
![切换 Firewalld 区域](/data/attachment/album/201504/28/210644bvlvqi8ivp3j2ayu.jpg)
*切换 Firewalld 区域*
列出区域中的所有服务。
```
# firewall-cmd --list-services
```
![列出 Firewalld 区域的服务](/data/attachment/album/201504/28/210645onkyzsntakkkgpyq.jpg)
*列出 Firewalld 区域的服务*
添加临时服务,比如 http,然后重载 firewalld。
```
# firewall-cmd --add-service=http
# firewall-cmd –reload
```
![添加临时 http 服务](/data/attachment/album/201504/28/210648bhwhhzr33m6qls4a.jpg)
*添加临时 http 服务*
添加永久服务,比如 http,然后重载 firewalld。
```
# firewall-cmd --add-service=http --permanent
# firewall-cmd --reload
```
![添加永久 http 服务](/data/attachment/album/201504/28/210648bhwhhzr33m6qls4a.jpg)
*添加永久 http 服务*
删除临时服务,比如 http。
```
# firewall-cmd --remove-service=http
# firewall-cmd --reload
```
![删除临时 Firewalld 服务](/data/attachment/album/201504/28/210648rpczhpt2h5ggc8c8.jpg)
*删除临时 Firewalld 服务*
删除永久服务,比如 http
```
# firewall-cmd --zone=work --remove-service=http --permanent
# firewall-cmd --reload
```
![删除永久服务](/data/attachment/album/201504/28/210649nizhfelajep8vq9p.jpg)
*删除永久服务*
允许一个临时端口(比如 331)。
```
# firewall-cmd --add-port=331/tcp
# firewall-cmd --reload
```
![打开临时 Firewalld 端口](/data/attachment/album/201504/28/210650e5958dc8f8rz5t5f.jpg)
*打开临时端口*
允许一个永久端口(比如 331)。
```
# firewall-cmd --add-port=331/tcp --permanent
# firewall-cmd --reload
```
![打开永久 Firewalld 端口](/data/attachment/album/201504/28/210651quuctarriqcbdk7k.jpg)
*打开永久端口*
阻塞/移除临时端口(比如 331)。
```
# firewall-cmd --remove-port=331/tcp
# firewall-cmd --reload
```
![移除 Firewalld 临时端口](/data/attachment/album/201504/28/210651f8568w675pqz5dff.jpg)
*移除临时端口*
阻塞/移除永久端口(比如 331)。
```
# firewall-cmd --remove-port=331/tcp --permanent
# firewall-cmd --reload
```
![移除 Firewalld 永久端口](/data/attachment/album/201504/28/210652ayw066hrcnw97e66.jpg)
*移除永久端口*
停用 firewalld。
```
# systemctl stop firewalld
# systemctl disable firewalld
# firewall-cmd --state
```
![在 CentOS 7 中停用 Firewalld](/data/attachment/album/201504/28/210653nxsyq2dl1xezv7ox.jpg)
*停用 Firewalld 服务*
启用 firewalld。
```
# systemctl enable firewalld
# systemctl start firewalld
# firewall-cmd --state
```
![在 CentOS 7 中取消 Firewalld](/data/attachment/album/201504/28/210655zg0f4x4ib0xsij0u.jpg)
*启用 Firewalld*
* [如何在 RHEL/CentOS 7 中配置 ‘Firewalld’](http://linux.cn/article-4425-1.html)
* [配置和管理 Firewalld 的有用 ‘Firewalld’ 规则](http://www.tecmint.com/firewalld-rules-for-centos-7/)
### 15. 安装 Wget
Wget 是从 web 服务器获取(下载)内容的命令行工具。它是你使用 wget 命令获取 web 内容或下载任何文件必须要有的重要工具。
```
# yum install wget
```
![安装 Wget 工具](/data/attachment/album/201504/28/210656rpt5aul17635z4uu.png)
*安装 Wget 工具*
关于在终端中如何使用 wget 命令下载文件的方法和实际例子,请阅读[10 个 Wget 命令例子](http://linux.cn/article-4129-1.html)。
### 16. 安装 Telnet 客户端
Telnet 是通过 TCP/IP 允许用户登录到相同网络上的另一台计算机的网络协议。和远程计算机的连接建立后,它就成为了一个允许你在自己的计算机上用所有提供给你的权限和远程主机交互的虚拟终端。(LCTT 译注:除非你真的需要,不要安装 telnet 服务,也不要用 telnet 客户端连接另外一个 telnet 服务,因为 telnet 是明文传输的。不过如下用 telnet 客户端检测另外一个服务的端口是否工作是常用的操作。)
Telnet 对于检查远程计算机或主机的监听端口也非常有用。
```
# yum install telnet
# telnet google.com 80
```
![Telnet 端口检查](/data/attachment/album/201504/28/210656it715tcmwkkwos4w.png)
*Telnet 端口检查*
---
via: <http://www.tecmint.com/things-to-do-after-minimal-rhel-centos-7-installation/3/>
作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[校对者ID](https://github.com/%E6%A0%A1%E5%AF%B9%E8%80%85ID)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,352 | 在 Linux 中以交互方式实时查看Apache web访问统计 | http://xmodulo.com/interactive-apache-web-server-log-analyzer-linux.html | 2015-04-29T10:03:00 | [
"日志",
"GoAccess"
] | https://linux.cn/article-5352-1.html | 无论你是在网站托管业务,还是在自己的VPS上运行几个网站,你总会有需要显示访客统计信息,例如前几的访客、访问请求的文件(无论动态或者静态)、所用的带宽、客户端的浏览器,和访问的来源网站,等等。
[GoAccess](http://goaccess.io/) 是一款用于Apache或者Nginx的命令行日志分析器和交互式查看器。使用这款工具,你不仅可以浏览到之前提及的相关数据,还可以通过分析网站服务器日志来进一步挖掘数据 - 而且**这一切都是在一个终端窗口实时输出的**。由于今天的[大多数web服务器](http://w3techs.com/technologies/details/os-linux/all/all)都使用Debian的衍生版或者基于RedHat的发行版来作为底层操作系统,所以本文中我告诉你如何在Debian和CentOS中安装和使用GoAccess。
![](/data/attachment/album/201504/29/134906rthi2i52qde4yo7a.jpg)
### 在Linux系统安装GoAccess
在Debian,Ubuntu及其衍生版本,运行以下命令来安装GoAccess:
```
# aptitude install goaccess
```
在CentOS中,你将需要使你的[EPEL 仓库](http://linux.cn/article-2324-1.html)可用然后执行以下命令:
```
# yum install goaccess
```
在Fedora,同样使用yum命令:
```
# yum install goaccess
```
如果你想从源码安装GoAccess来使用更多功能(例如 GeoIP 定位功能),需要在你的操作系统安装[必需的依赖包](http://goaccess.io/download#dependencies),然后按以下步骤进行:
```
# wget http://tar.goaccess.io/goaccess-0.8.5.tar.gz
# tar -xzvf goaccess-0.8.5.tar.gz
# cd goaccess-0.8.5/
# ./configure --enable-geoip
# make
# make install
```
以上安装的版本是 0.8.5,但是你也可以在该软件的网站[下载页](http://goaccess.io/download)确认是否是最新版本。
由于GoAccess不需要后续的配置,一旦安装你就可以马上使用。
### 运行 GoAccess
开始使用GoAccess,只需要对它指定你的Apache访问日志。
对于Debian及其衍生版本:
```
# goaccess -f /var/log/apache2/access.log
```
基于红帽的发行版:
```
# goaccess -f /var/log/httpd/access_log
```
当你第一次启动GoAccess,你将会看到如下的屏幕中选择日期和日志格式。正如前面所述,你可以按空格键进行选择,并按F10确认。至于日期和日志格式,你可能需要参考[Apache 文档](http://httpd.apache.org/docs/2.4/logs.html)来刷新你的记忆。
在这个例子中,选择常见日志格式(Common Log Format(CLF)):
![](/data/attachment/album/201504/29/134907rf9zddqelq1707g2.jpg)
然后按F10 确认。你将会从屏幕上看到统计数据。为了简洁起见,这里只显示了首部,也就是日志文件的摘要,如下图所示:
![](/data/attachment/album/201504/29/134907w0gaagpg3azqq3vs.jpg)
### 通过 GoAccess来浏览网站服务器统计数据
你可以按向下的箭头滚动页面,你会发现以下区域,它们是按请求排序的。这里提及的目录顺序可能会根据你的发行版或者你所选的安装方式(从源和库)不同而不同:
1. 每天唯一访客(来自同样IP、同一日期和同一浏览器的请求被认为是是唯一访问)
![](/data/attachment/album/201504/29/134907y2hqc0o922qbocbg.jpg)
2. 请求的文件(网页URL)
![](/data/attachment/album/201504/29/134907bpopkgzpnazztpzs.jpg)
3. 请求的静态文件(例如,.png文件,.js文件等等)
4. 来源的URLs(每一个URL请求的出处)
5. HTTP 404 未找到的响应代码
![](/data/attachment/album/201504/29/134907mvhll29y0055z8dl.jpg)
6. 操作系统
7. 浏览器
8. 主机地址(客户端IP地址)
![](/data/attachment/album/201504/29/134907wm7r09aaxok97aek.jpg)
9. HTTP 状态代码
![](/data/attachment/album/201504/29/134907s9xp8527rd68j2pb.jpg)
10. 前几位的来源站点
11. 来自谷歌搜索引擎的前几位的关键字
如果你想要检查已经存档的日志,你可以通过管道将它们发送给GoAccess,如下:
在Debian及其衍生版本:
```
# zcat -f /var/log/apache2/access.log* | goaccess
```
在基于红帽的发行版:
```
# cat /var/log/httpd/access* | goaccess
```
如果你需要上述部分的详细报告(1至11项),直接按下其序号再按O(大写o),就可以显示出你需要的详细视图。下面的图像显示5-O的输出(先按5,再按O)
![](/data/attachment/album/201504/29/134907dz2c22glc25vcvpu.jpg)
如果要显示GeoIP位置信息,打开主机部分的详细视图,如前面所述,你将会看到正在请求你的服务器的客户端IP地址所在的位置。
![](/data/attachment/album/201504/29/134907e0qq0ybmmeom4xkb.jpg)
如果你的系统还不是很忙碌,以上提及的章节将不会显示大量的信息,但是这种情形可以通过在你网站服务器越来越多的请求发生改变。
### 保存用于离线分析的报告
有时候你不想每次都实时去检查你的系统状态,可以保存一份在线的分析文件或打印出来。要生成一个HTML报告,只需要通过之前提到GoAccess命令,将输出来重定向到一个HTML文件即可。然后,用web浏览器来将这份报告打开即可。
```
# zcat -f /var/log/apache2/access.log* | goaccess > /var/www/webserverstats.html
```
一旦报告生成,你将需要点击展开的链接来显示每个类别详细的视图信息:
![](/data/attachment/album/201504/29/134907setebvxbnnwbtnoz.png)
可以查看youtube视频:<https://youtu.be/UVbLuaOpYdg> 。
正如我们通过这篇文章讨论,GoAccess是一个非常有价值的工具,它能给系统管理员实时提供可视的HTTP 统计分析。虽然GoAccess的默认输出是标准输出,但是你也可以将他们保存到JSON,HTML或者CSV文件。这种转换可以让 GoAccess在监控和显示网站服务器的统计数据时更有用。
---
via: <http://xmodulo.com/interactive-apache-web-server-log-analyzer-linux.html>
作者:[Gabriel Cánepa](http://xmodulo.com/author/gabriel) 译者:[disylee](https://github.com/disylee) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,366 | 安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(四) | http://www.tecmint.com/things-to-do-after-minimal-rhel-centos-7-installation/4/ | 2015-05-01T18:22:00 | [
"RHEL 7",
"CentOS 7"
] | https://linux.cn/article-5366-1.html | ![](/data/attachment/album/201504/27/151948jz881a61rj66up58.png)
### 17. 安装 Webmin
Webmin 是基于 Web 的 Linux 配置工具。它像一个中央系统,用于配置各种系统设置,比如用户、磁盘分配、服务以及 HTTP 服务器、Apache、MySQL 等的配置。
```
# wget http://prdownloads.sourceforge.net/webadmin/webmin-1.740-1.noarch.rpm
# rpm -ivh webmin-*.rpm
```
![在 CentOS 7 上安装 Webmin](/data/attachment/album/201505/01/182210lllliminb55pcp2l.jpg)
*安装 Webmin*
安装完 webmin 后,你会在终端上得到一个消息,提示你用 root 密码在端口 10000 登录你的主机 (http://ip-address:10000)。 如果运行的是无用户界面服务器你可以转发端口然后从有用户界面的机器上访问它。(LCTT 译注:无用户界面[headless]服务器指没有监视器和鼠标键盘等外设的服务器,在此次场景,你可以用其他有显示器和键盘鼠标的机器上访问它。)
### 18. 启用第三方库
添加不受信任的库并不是一个好主意,尤其是在生产环境中,这可能导致致命的问题。但仅作为例子在这里我们会添加一些社区证实可信任的库,以安装第三方工具和软件包。
为企业版 Linux(EPEL)库添加额外的软件包。
```
# yum install epel-release
```
添加社区企业版 Linux (Community Enterprise Linux)库:
```
# rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-2.el7.elrepo.noarch.rpm
```
![安装 Epel 库](/data/attachment/album/201505/01/182212ddexo77dxckchcxm.jpg)
*安装 Epel 库*
**注意!** 添加第三方库的时候尤其需要注意。
### 19. 安装 7-zip 工具
在最小化安装 CentOS 时你并没有获得类似 unzip 或者 untar 的工具。我们可以选择根据需要来安装每个工具,或一个能处理所有格式的工具。7-zip 就是一个能压缩和解压所有已知类型文件的工具。
```
# yum install p7zip
```
![安装 7zip 工具](/data/attachment/album/201505/01/182213zfvsk888mn01k11q.jpg)
*安装 7zip 工具*
**注意**: 该软件包从 Fedora EPEL 7 的库中下载和安装。
### 20. 安装 NTFS-3G 驱动
NTFS-3G,一个很小但非常有用的 NTFS 驱动,在大部分类 UNIX 发行版上都可用。它对于挂载和访问 Windows NTFS 文件系统很有用。尽管也有其它可用的替代品,比如 Tuxera,但 NTFS-3G 是使用最广泛的。
```
# yum install ntfs-3g
```
![在 CentOS 上安装 NTFS-3G](/data/attachment/album/201505/01/182213xunhhfyqwwa7rhyq.jpg)
*安装 NTFS-3G 用于挂载 Windows 分区*
ntfs-3g 安装完成之后,你可以使用以下命令挂载 Windows NTFS 分区(我的 Windows 分区是 /dev/sda5)。
```
# mount -ro ntfs-3g /dev/sda5 /mnt
# cd /mnt
# ls -l
```
### 21. 安装 Vsftpd FTP 服务器
VSFTPD 表示 Very Secure File Transfer Protocol Daemon,是用于类 UNIX 系统的 FTP 服务器。它是现今最高效和安全的 FTP 服务器之一。
```
# yum install vsftpd
```
![在 CentOS 7 上安装 Vsftpd](/data/attachment/album/201505/01/182213mv6mwqvu5vi78jvl.jpg)
*安装 Vsftpd FTP*
编辑配置文件 ‘/etc/vsftpd/vsftpd.conf’ 用于保护 vsftpd。
```
# vi /etc/vsftpd/vsftpd.conf
```
编辑一些值并使其它行保留原样,除非你知道自己在做什么。
```
anonymous_enable=NO
local_enable=YES
write_enable=YES
chroot_local_user=YES
```
你也可以更改端口号,记得让 vsftpd 端口通过防火墙。
```
# firewall-cmd --add-port=21/tcp
# firewall-cmd --reload
```
下一步重启 vsftpd 并启用开机自动启动。
```
# systemctl restart vsftpd
# systemctl enable vsftpd
```
### 22. 安装和配置 sudo
sudo 通常被称为 super do 或者 suitable user do,是一个类 UNIX 操作系统中用其它用户的安全权限执行程序的软件。让我们来看看怎样配置 sudo。
```
# visudo
```
这会打开 /etc/sudoers 并进行编辑
![sudoers 文件](/data/attachment/album/201505/01/182214hre7irqu55uz5iua.jpg)
*sudoers 文件*
1. 给一个已经创建好的用户(比如 tecmint)赋予所有权限(等同于 root)。
```
tecmint ALL=(ALL) ALL
```
2. 如果给一个已经创建好的用户(比如 tecmint)赋予除了重启和关闭服务器以外的所有权限(等同于 root)。
首先,再一次打开文件并编辑如下内容:
```
cmnd_Alias nopermit = /sbin/shutdown, /sbin/reboot
```
然后,用逻辑操作符(!)添加该别名。
```
tecmint ALL=(ALL) ALL,!nopermit
```
3. 如果准许一个组(比如 debian)运行一些 root 权限命令,比如(增加或删除用户)。
```
cmnd_Alias permit = /usr/sbin/useradd, /usr/sbin/userdel
```
然后,给组 debian 增加权限。
```
debian ALL=(ALL) permit
```
### 23. 安装并启用 SELinux
SELinux 表示 Security-Enhanced Linux,是内核级别的安全模块。
```
# yum install selinux-policy
```
![在 CentOS 7 上安装 SElinux](/data/attachment/album/201505/01/182214qltl259i65g6mcme.jpg)
*安装 SElinux 策略*
查看 SELinux 当前模式。
```
# getenforce
```
![查看 SELinux 模式](/data/attachment/album/201505/01/182215jdz223ffifc2fd2f.jpg)
*查看 SELinux 模式*
输出是 Enforcing,意味着 SELinux 策略已经生效。
如果需要调试,可以临时设置 selinux 模式为允许。不需要重启。
```
# setenforce 0
```
调试完了之后再次设置 selinux 为强制模式,无需重启。
```
# setenforce 1
```
(LCTT 译注:在生产环境中,SELinux 固然会提升安全,但是也确实会给应用部署和运行带来不少麻烦。具体是否部署,需要根据情况而定。)
### 24. 安装 Rootkit Hunter
Rootkit Hunter,简写为 RKhunter,是在 Linux 系统中扫描 rootkits 和其它可能有害攻击的程序。
```
# yum install rkhunter
```
![安装 Rootkit Hunter](/data/attachment/album/201505/01/182215pqqsdy37zx6sdoos.jpg)
*安装 Rootkit Hunter*
在 Linux 中,从脚本文件以计划作业的形式运行 rkhunter 或者手动扫描有害攻击。
```
# rkhunter --check
```
![扫描 rootkits](/data/attachment/album/201505/01/182215aogbjob7fnij2o7o.png)
*扫描 rootkits*
![RootKit 扫描结果](/data/attachment/album/201505/01/182216dhvzf9husm98ujtv.png)
*RootKit 扫描结果*
---
via: <http://www.tecmint.com/things-to-do-after-minimal-rhel-centos-7-installation/4/>
作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,367 | 安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(五) | http://www.tecmint.com/things-to-do-after-minimal-rhel-centos-7-installation/5/ | 2015-05-02T08:28:00 | [
"RHEL 7",
"CentOS 7"
] | https://linux.cn/article-5367-1.html | ![](/data/attachment/album/201504/27/151948jz881a61rj66up58.png)
### 25. 安装 Linux Malware Detect (LMD)
Linux Malware Detect (LMD) 是 GNU GPLv2 协议下发布的开源 Linux 恶意程序扫描器,它是特别为面临威胁的主机环境所设计的。LMD 完整的安装、配置以及使用方法可以查看:
* [安装 LMD 并和 ClamAV 一起使用作为反病毒引擎](/article-5156-1.html)
### 26. 用 Speedtest-cli 测试服务器带宽
speedtest-cli 是用 python 写的用于测试网络下载和上传带宽的工具。关于 speedtest-cli 工具的完整安装和使用请阅读我们的文章[用命令行查看 Linux 服务器带宽](/article-3796-1.html)
### 27. 配置 Cron 任务
这是最广泛使用的软件工具之一。它是一个任务调度器,比如,现在安排一个以后可以自动运行的作业。它用于未处理记录的日志和维护,以及其它日常工作,比如常规备份。所有的调度都写在文件 /etc/crontab 中。
crontab 文件包含下面的 6 个域:
```
分 时 日期 月份 星期 命令
(0-59) (0-23) (1-31) (1/jan-12/dec) (0-6/sun-sat) Command/script
```
![Crontab 域](/data/attachment/album/201505/01/213208cde9gyzvi4d2u4bb.jpg)
*Crontab 域*
要在每天 04:30 运行一个 cron 任务(比如运行 /home/$USER/script.sh)。
```
分 时 日期 月份 星期 命令
30 4 * * * speedtest-cli
```
就把下面的条目增加到 crontab 文件 ‘/etc/crontab/’。
```
30 4 * * * /home/$user/script.sh
```
把上面一行增加到 crontab 之后,它会在每天的 04:30 am 自动运行,输出取决于脚本文件的内容。另外脚本也可以用命令代替。关于更多 cron 任务的例子,可以阅读[Linux 上的 11 个 Cron 任务例子](http://www.tecmint.com/11-cron-scheduling-task-examples-in-linux/)
### 28. 安装 Owncloud
Owncloud 是一个基于 HTTP 的数据同步、文件共享和远程文件存储应用。更多关于安装 owncloud 的内容,你可以阅读这篇文章:[在 Linux 上创建个人/私有云存储](/article-2494-1.html)
### 29. 启用 Virtualbox 虚拟化
虚拟化是创建虚拟操作系统、硬件和网络的过程,是当今最热门的技术之一。我们会详细地讨论如何安装和配置虚拟化。
我们的最小化 CentOS 服务器是一个无用户界面服务器(LCTT 译注:无用户界面[headless]服务器指没有监视器和鼠标键盘等外设的服务器)。我们通过安装下面的软件包,让它可以托管虚拟机,虚拟机可通过 HTTP 访问。
```
# yum groupinstall 'Development Tools' SDL kernel-devel kernel-headers dkms
```
![安装开发工具](/data/attachment/album/201505/01/213209m7099nkjct0nz6e9.jpg)
*安装开发工具*
更改工作目录到 ‘/etc/yum.repos.d/’ 并下载 VirtualBox 库。
```
# wget -q http://download.virtualbox.org/virtualbox/debian/oracle_vbox.asc
```
安装刚下载的密钥。
```
# rpm --import oracle_vbox.asc
```
升级并安装 VirtualBox。
```
# yum update && yum install virtualbox-4.3
```
下一步,下载和安装 VirtualBox 扩展包。
```
# wget http://download.virtualbox.org/virtualbox/4.3.12/Oracle_VM_VirtualBox_Extension_Pack-4.3.12-93733.vbox-extpack
# VBoxManage extpack install Oracle_VM_VirtualBox_Extension_Pack-4.3.12-93733.vbox-extpack
```
![安装 VirtualBox 扩展包](/data/attachment/album/201505/01/213209tyzktii28f6yctf4.jpg)
*安装 VirtualBox 扩展包*
![正在安装 VirtualBox 扩展包](/data/attachment/album/201505/01/213210psah3lndk1aqnqdd.jpg)
*正在安装 VirtualBox 扩展包*
添加用户 ‘vbox’ 用于管理 VirtualBox 并把它添加到组 vboxusers 中。
```
# adduser vbox
# passwd vobx
# usermod -G vboxusers vbox
```
安装 HTTPD 服务器。
```
# yum install httpd
```
安装 PHP (支持 soap 扩展)。
```
# yum install php php-devel php-common php-soap php-gd
```
下载 phpVirtualBox(一个 PHP 写的开源的 VirtualBox 用户界面)。
```
# wget http://sourceforge.net/projects/phpvirtualbox/files/phpvirtualbox-4.3-1.zip
```
解压 zip 文件并把解压后的文件夹复制到 HTTP 工作目录。
```
# unzip phpvirtualbox-4.*.zip
# cp phpvirtualbox-4.3-1 -R /var/www/html
```
下一步,重命名文件 /var/www/html/phpvirtualbox/config.php-example 为 var/www/html/phpvirtualbox/config.php。
```
# mv config.php.example config.php
```
打开配置文件并添加我们上一步创建的 ‘username ’ 和 ‘password’。
```
# vi config.php
```
最后,重启 VirtualBox 和 HTTP 服务器。
```
# service vbox-service restart
# service httpd restart
```
转发端口并从一个有用户界面的服务器上访问它。
```
http://192.168.0.15/phpvirtualbox-4.3-1/
```
![登录 PHP Virtualbox](/data/attachment/album/201505/01/213211j8eezv6d0znsc6e8.png)
*登录 PHP Virtualbox*
![PHP Virtualbox 面板](/data/attachment/album/201505/01/213212jbvsj8kjjahc7sha.png)
*PHP Virtualbox 面板*
---
via: <http://www.tecmint.com/things-to-do-after-minimal-rhel-centos-7-installation/5/>
作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,368 | 安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(六) | http://www.tecmint.com/things-to-do-after-minimal-rhel-centos-7-installation/6/ | 2015-05-03T08:41:00 | [
"RHEL 7",
"CentOS 7"
] | https://linux.cn/article-5368-1.html | ![](/data/attachment/album/201504/27/151948jz881a61rj66up58.png)
### 30. 用密码保护 GRUB
用密码保护你的 boot 引导程序这样你就可以在启动时获得额外的安全保障。同时你也可以在实物层面获得保护。通过在引导时给 GRUB 加锁防止任何无授权访问来保护你的服务器。
首先备份两个文件,这样如果有任何错误出现,你可以有回滚的选择。备份 ‘/etc/grub2/grub.cfg’ 为 ‘/etc/grub2/grub.cfg.old’。
```
# cp /boot/grub2/grub.cfg /boot/grub2/grub.cfg.old
```
同样,备份 ‘/etc/grub.d/10\_linux’ 为 ‘/etc/grub.d/10\_linux.old’。
```
# cp /etc/grub.d/10_linux /etc/grub.d/10_linux.old
```
打开文件 ‘/etc/grub.d/10\_linux’ 并在文件末尾添加下列行。
```
cat <<EOF
set superusers="tecmint"
Password tecmint avi@123
EOF
```
![密码保护 Grub](/data/attachment/album/201505/01/214424j1sohzccl1qc0u6c.png)
*密码保护 Grub*
注意在上面的文件中,用你自己的用户名和密码代替 “tecmint” 和 “avi@123”。
现在通过运行下面的命令生成新的 grub.cfg 文件。
```
# grub2-mkconfig --output=/boot/grub2/grub.cfg
```
![生成 Grub 文件](/data/attachment/album/201505/01/214425ibzzdpi8jzi8z6xh.jpg)
*生成 Grub 文件*
创建 grub.cfg 文件之后,重启机器并敲击 ‘e’ 进入编辑。你会发现它会要求你输入 “有效验证” 来编辑 boot 菜单。
![有密码保护的 Boot 菜单](/data/attachment/album/201505/01/214426d5v50aatm52m90a8.jpg)
*有密码保护的 Boot 菜单*
输入登录验证之后,你就可以编辑 grub boot 菜单。
![Grub 菜单文件](/data/attachment/album/201505/01/214426qz7g45m5qbsm545m.jpg)
*Grub 菜单文件*
你也可以用加密的密码代替上一步的明文密码。首先按照下面推荐的生成加密密码。
```
# grub2-mkpasswd-pbkdf2
[两次输入密码]
```
![生成加密的 Grub 密码](/data/attachment/album/201505/01/214426hxzf2xtn5vtcutrj.jpg)
*生成加密的 Grub 密码*
打开 ‘/etc/grub.d/10\_linux’ 文件并在文件末尾添加下列行。
```
cat <<EOF
set superusers=”tecmint”
Password_pbkdf2 tecmint
grub.pbkdf2.sha512...你的加密密码...
EOF
```
![加密 Grub 密码](/data/attachment/album/201505/01/214427yb1eacw6zet7505b.jpg)
*加密 Grub 密码*
用你系统上生成的密码代替原来的密码,别忘了交叉检查密码。
同样注意在这种情况下你也需要像上面那样生成 grub.cfg。重启并敲击 ‘e’ 进入编辑,会提示你输入用户名和密码。
我们已经介绍了大部分工业标准发行版 RHEL 7 和 CentOS 7 安装后必要的操作。如果你发现我们缺少了一些点或者你有新的东西可以扩充这篇文章,你可以和我们一起分享,我们会通过扩充在这篇文章中包括你的分享。
---
via: <http://www.tecmint.com/things-to-do-after-minimal-rhel-centos-7-installation/6/>
作者:[vishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,372 | Linux 的 ‘sort’命令的14个有用的范例(一) | http://www.tecmint.com/sort-command-linux/ | 2015-05-02T10:29:58 | [
"命令",
"sort"
] | https://linux.cn/article-5372-1.html | Sort是用于对单个或多个文本文件内容进行排序的Linux程序。Sort命令以空格作为字段分隔符,将一行分割为多个关键字对文件进行排序。需要注意的是除非你将输出重定向到文件中,否则Sort命令并不对文件内容进行实际的排序(即文件内容没有修改),只是将文件内容按有序输出。
本文的目标是通过14个实际的范例让你更深刻的理解如何在Linux中使用sort命令。
![](/data/attachment/album/201505/02/102959wecogvuagsouuvke.png)
1、 首先我们将会创建一个用于执行‘sort’命令的文本文件(tecmint.txt)。工作路径是‘/home/$USER/Desktop/tecmint’。
下面命令中的‘-e’选项将启用‘\’转义,将‘\n’解析成换行
```
$ echo -e "computer\nmouse\nLAPTOP\ndata\nRedHat\nlaptop\ndebian\nlaptop" > tecmint.txt
```
![Split String by Lines in Linux](/data/attachment/album/201505/02/103000tnniqv6iacq9idcs.gif)
2、 在开始学习‘sort’命令前,我们先看看文件的内容及其显示方式。
```
$ cat tecmint.txt
```
![Check Content of File](/data/attachment/album/201505/02/103001ixwoe5bxo7c02yd7.gif)
3、 现在,使用如下命令对文件内容进行排序。
```
$ sort tecmint.txt
```
![Sort Content of File linux](/data/attachment/album/201505/02/103001jcvj8wjxr98frrxc.gif)
**注意**:上面的命令并不对文件内容进行实际的排序,仅仅是将其内容按有序方式输出。
4、 对文件‘tecmint.txt’文件内容排序,并将排序后的内容输出到名为sorted.txt的文件中,然后使用[cat](http://www.tecmint.com/13-basic-cat-command-examples-in-linux/)命令查看验证sorted.txt文件的内容。
```
$ sort tecmint.txt > sorted.txt
$ cat sorted.txt
```
![Sort File Content in Linux](/data/attachment/album/201505/02/103002ygup2aa2cf8825s8.gif)
5、 现在使用‘-r’参数对‘tecmint.txt’文件内容进行逆序排序,并将输出内容重定向到‘reversesorted.txt’文件中,并使用cat命令查看文件的内容。
```
$ sort -r tecmint.txt > reversesorted.txt
$ cat reversesorted.txt
```
![Sort Content By Reverse](/data/attachment/album/201505/02/103002qui6h2l5kjv6lt6h.gif)
6、 创建一个新文件(lsl.txt),文件内容为在home目录下执行‘ls -l’命令的输出。
```
$ ls -l /home/$USER > /home/$USER/Desktop/tecmint/lsl.txt
$ cat lsl.txt
```
![Populate Output of Home Directory](/data/attachment/album/201505/02/103003msmc9vddiddd11j8.gif)
我们将会看到对其他字段进行排序的例子,而不是对默认的开始字符进行排序。
7、 基于第二列(符号连接的数量)对文件‘lsl.txt’进行排序。
```
$ sort -nk2 lsl.txt
```
**注意**:上面例子中的‘-n’参数表示对数值内容进行排序。当想基于文件中的数值列对文件进行排序时,必须要使用‘-n’参数。
![Sort Content by Column](/data/attachment/album/201505/02/103004z1w41zi199c14di1.gif)
8、 基于第9列(文件和目录的名称,非数值)对文件‘lsl.txt’进行排序。
```
$ sort -k9 lsl.txt
```
![Sort Content Based on Column](/data/attachment/album/201505/02/103004kmzcc27e2j2t5ebo.gif)
9、 sort命令并非仅能对文件进行排序,我们还可以通过管道将命令的输出内容重定向到sort命令中。
```
$ ls -l /home/$USER | sort -nk5
```
![Sort Content Using Pipe Option](/data/attachment/album/201505/02/103004eyddtpyl1hmxhlyw.gif)
10、 对文件tecmint.txt进行排序,并删除重复的行。然后检查重复的行是否已经删除了。
```
$ cat tecmint.txt
$ sort -u tecmint.txt
```
![Sort and Remove Duplicates](/data/attachment/album/201505/02/103005ycyurzuyv3rd3khv.gif)
目前我们发现的排序规则:
除非指定了‘-r’参数,否则排序的优先级按下面规则排序
* 以数字开头的行优先级最高
* 以小写字母开头的行优先级次之
* 待排序内容按字典序进行排序
* 默认情况下,‘sort’命令将带排序内容的每行关键字当作一个字符串进行字典序排序(数字优先级最高,参看规则 1)
11、 在当前位置创建第三个文件‘lsla.txt’,其内容用‘ls -lA’命令的输出内容填充。
```
$ ls -lA /home/$USER > /home/$USER/Desktop/tecmint/lsla.txt
$ cat lsla.txt
```
![Populate Output With Hidden Files](/data/attachment/album/201505/02/103005hs7dnaduxs7stwbe.gif)
了解ls命令的读者都知道‘ls -lA’ 等于 ‘ls -l’ + 隐藏文件,所以这两个文件的大部分内容都是相同的。
12、 对上面两个文件内容进行排序输出。
```
$ sort lsl.txt lsla.txt
```
![Sort Contents of Two Files](/data/attachment/album/201505/02/103007d6fishsnp6pu63o4.gif)
注意文件和目录的重复
13、 现在我们看看怎样对两个文件进行排序、合并,并且删除重复行。
```
$ sort -u lsl.txt lsla.txt
```
![Sort, Merge and Remove Duplicates from File](/data/attachment/album/201505/02/103010j55g5ngudged89a7.gif)
此时,我们注意到重复的行已经被删除了,我们可以将输出内容重定向到文件中。
14、 我们同样可以基于多列对文件内容进行排序。基于第2,5(数值)和9(非数值)列对‘ls -l’命令的输出进行排序。
```
$ ls -l /home/$USER | sort -t "," -nk2,5 -k9
```
![Sort Content By Field Column](/data/attachment/album/201505/02/103011h787ezzjxvh97eve.gif)
先到此为止了,在接下来的文章中我们将会学习到‘sort’命令更多的详细例子。届时敬请关注我们。保持分享精神。若喜欢本文,敬请将本文分享给你的朋友。
---
via: <http://www.tecmint.com/sort-command-linux/>
作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[cvsher](https://github.com/cvsher) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,373 | Linux 的 'sort'命令的七个有趣实例(二) | http://www.tecmint.com/linux-sort-command-examples/ | 2015-05-04T08:54:00 | [
"命令",
"sort"
] | https://linux.cn/article-5373-1.html | 在[上一篇文章](http://www.tecmint.com/sort-command-linux/)里,我们已经探讨了关于sort命令的多个例子,如果你错过了这篇文章,可以点击下面的链接进行阅读。今天的这篇文章作为上一篇文章的继续,将讨论关于sort命令的剩余用法,与上一篇一起作为Linux ‘sort’命令的完整指南。
* [Linux 的 ‘sort’命令的14个有用的范例(一)](http://www.tecmint.com/sort-command-linux/)
![](/data/attachment/album/201505/02/102959wecogvuagsouuvke.png)
在我们继续深入之前,先创建一个文本文档‘month.txt’,并且将上一次给出的数据填进去。
```
$ echo -e "mar\ndec\noct\nsep\nfeb\naug" > month.txt
$ cat month.txt
```
![Populate Content](/data/attachment/album/201505/02/105700klkfmvv0flbsskf6.gif)
15、 通过使用’M‘选项,对’month.txt‘文件按照月份顺序进行排序。
```
$ sort -M month.txt
```
**注意**:‘sort’命令需要至少3个字符来确认月份名称。
![Sort File Content by Month in Linux](/data/attachment/album/201505/02/105701p2wxy026s0z023to.gif)
16、 把数据整理成方便人们阅读的形式,比如1K、2M、3G、2T,这里面的K、G、M、T代表千、兆、吉、梯。 (LCTT 译注:此处命令有误,ls 命令应该增加 -h 参数,径改之)
```
$ ls -lh /home/$USER | sort -h -k5
```
![Sort Content Human Readable Format](/data/attachment/album/201505/02/105701wxxuatq5zu9qtzmk.gif)
17、 在上一篇文章中,我们在例子4中创建了一个名为‘sorted.txt’的文件,在例子6中创建了一个‘lsl.txt’。‘sorted.txt'已经排好序了而’lsl.txt‘还没有。让我们使用sort命令来检查两个文件是否已经排好序。
```
$ sort -c sorted.txt
```
![Check File is Sorted](/data/attachment/album/201505/02/105702lsqqcyrsncwcffqj.gif)
如果它返回0,则表示文件已经排好序。
```
$ sort -c lsl.txt
```
![Check File Sorted Status](/data/attachment/album/201505/02/105702gyahwzs46p5s21a2.gif)
报告无序。存在矛盾……
18、 如果文字之间的分隔符是空格,sort命令自动地将空格后的东西当做一个新文字单元,如果分隔符不是空格呢?
考虑这样一个文本文件,里面的内容可以由除了空格之外的任何符号分隔,比如‘|’,‘\’,‘+’,‘.’等……
创建一个分隔符为+的文本文件。使用‘cat‘命令查看文件内容。
```
$ echo -e "21+linux+server+production\n11+debian+RedHat+CentOS\n131+Apache+Mysql+PHP\n7+Shell Scripting+python+perl\n111+postfix+exim+sendmail" > delimiter.txt
```
---
```
$ cat delimiter.txt
```
![Check File Content by Delimiter](/data/attachment/album/201505/02/105702uxrgssqxvglzlstn.gif)
现在基于由数字组成的第一个域来进行排序。
```
$ sort -t '+' -nk1 delimiter.txt
```
![Sort File By Fields](/data/attachment/album/201505/02/105703mnrarjnx7nddwnb0.gif)
然后再基于非数字的第四个域排序。
![Sort Content By Non Numeric](/data/attachment/album/201505/02/105703nxjyhizvvx8j5nxk.gif)
如果分隔符是制表符,你需要在’+‘的位置上用$’\t’代替,如上例所示。
19、 对主用户目录下使用‘ls -l’命令得到的结果基于第五列(‘文件大小’)进行一个乱序排列。
```
$ ls -l /home/avi/ | sort -k5 -R
```
![Sort Content by Column in Random Order](/data/attachment/album/201505/02/105704pw69nw6hwhcwavww.gif)
每一次你运行上面的脚本,你得到结果可能都不一样,因为结果是随机生成的。
正如我在上一篇文章中提到的规则2所说——sort命令会将以小写字母开始的行排在大写字母开始的行前面。看一下上一篇文章的例3,字符串‘laptop’在‘LAPTOP’前出现。
20、 如何覆盖默认的排序优先权?在这之前我们需要先将环境变量LC\_ALL的值设置为C。在命令行提示栏中运行下面的代码。
```
$ export LC_ALL=C
```
然后以非默认优先权的方式对‘tecmint.txt’文件重新排序。
```
$ sort tecmint.txt
```
![Override Sorting Preferences](/data/attachment/album/201505/02/105706occ4t7a7h4m999m9.gif)
*覆盖排序优先权*
不要忘记与example 3中得到的输出结果做比较,并且你可以使用‘-f’,又叫‘-ignore-case’(忽略大小写)的选项来获取更有序的输出。
```
$ sort -f tecmint.txt
```
![Compare Sorting Preferences](/data/attachment/album/201505/02/105706sn54r2dspz2nbr2v.gif)
21、 给两个输入文件进行‘sort‘,然后把它们连接成一行!
我们创建两个文本文档’file1.txt‘以及’file2.txt‘,并用数据填充,如下所示,并用’cat‘命令查看文件的内容。
```
$ echo -e “5 Reliable\n2 Fast\n3 Secure\n1 open-source\n4 customizable” > file1.txt
$ cat file1.txt
```
![Populate Content with Numbers](/data/attachment/album/201505/02/105707j38vk01w78yt0g00.gif)
用如下数据填充’file2.txt‘。
```
$ echo -e “3 RedHat\n1 Debian\n5 Ubuntu\n2 Kali\n4 Fedora” > file2.txt
$ cat file2.txt
```
![Populate File with Data](/data/attachment/album/201505/02/105707drz8fbflwl50enze.gif)
现在我们对两个文件进行排序并连接。
```
$ join <(sort -n file1.txt) <(sort file2.txt)
```
![Sort Join Two Files](/data/attachment/album/201505/02/105708uumm00x22i5z2k07.gif)
我所要讲的全部内容就在这里了,希望与各位保持联系,也希望各位经常来逛逛。有反馈就在下面评论吧。
---
via: <http://www.tecmint.com/linux-sort-command-examples/>
作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[DongShuaike](https://github.com/DongShuaike) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,374 | 增强 nginx 的 SSL 安全性 | https://raymii.org/s/tutorials/Strong_SSL_Security_On_nginx.html | 2015-05-04T09:00:00 | [
"SSL",
"OpenSSL",
"https",
"nginx"
] | https://linux.cn/article-5374-1.html | [![](/data/attachment/album/201505/03/180656c9rra95g25gghdg5.png)](https://www.ssllabs.com/ssltest/analyze.html?d=raymii.org)
本文向你介绍如何在 nginx 服务器上设置健壮的 SSL 安全机制。我们通过禁用 SSL 压缩来降低 CRIME 攻击威胁;禁用协议上存在安全缺陷的 SSLv3 及更低版本,并设置更健壮的<ruby> 加密套件 <rp> ( </rp> <rt> cipher suite </rt> <rp> ) </rp></ruby>来尽可能启用<ruby> 前向安全性 <rp> ( </rp> <rt> Forward Secrecy </rt> <rp> ) </rp></ruby>;此外,我们还启用了 HSTS 和 HPKP。这样我们就拥有了一个健壮而可经受考验的 SSL 配置,并可以在 Qually Labs 的 SSL 测试中得到 A 级评分。
如果不求甚解的话,可以从 [https://cipherli.st](https://cipherli.st/) 上找到 nginx 、Apache 和 Lighttpd 的安全设置,复制粘帖即可。
本教程在 Digital Ocean 的 VPS 上测试通过。如果你喜欢这篇教程,想要支持作者的站点的话,购买 Digital Ocean 的 VPS 时请使用如下链接:<https://www.digitalocean.com/?refcode=7435ae6b8212> 。
本教程可以通过[发布于 2014/1/21 的](http://blog.ivanristic.com/2014/01/ssl-labs-stricter-security-requirements-for-2014.html) SSL 实验室测试的严格要求(我之前就通过了测试,如果你按照本文操作就可以得到一个 A+ 评分)。
* [本教程也可用于 Apache](https://raymii.org/s/tutorials/Strong_SSL_Security_On_Apache2.html)
* [本教程也可用于 Lighttpd](https://raymii.org/s/tutorials/Pass_the_SSL_Labs_Test_on_Lighttpd_%28Mitigate_the_CRIME_and_BEAST_attack_-_Disable_SSLv2_-_Enable_PFS%29.html)
* [本教程也可用于 FreeBSD, NetBSD 和 OpenBSD 上的 nginx ,放在 BSD Now 播客上](http://www.bsdnow.tv/episodes/2014_08_20-engineering_nginx): <http://www.bsdnow.tv/tutorials/nginx>
你可以从下列链接中找到这方面的进一步内容:
* [野兽攻击(BEAST)](https://en.wikipedia.org/wiki/Transport_Layer_Security#BEAST_attack)
* [罪恶攻击(CRIME)](https://en.wikipedia.org/wiki/CRIME_%28security_exploit%29)
* [怪物攻击(FREAK )](http://blog.cryptographyengineering.com/2015/03/attack-of-week-freak-or-factoring-nsa.html)
* [心血漏洞(Heartbleed)](http://heartbleed.com/)
* [完备的前向安全性(Perfect Forward Secrecy)](https://en.wikipedia.org/wiki/Perfect_forward_secrecy)
* [RC4 和 BEAST 的处理](https://en.wikipedia.org/wiki/Transport_Layer_Security#Dealing_with_RC4_and_BEAST)
我们需要编辑 nginx 的配置,在 Ubuntu/Debian 上是 `/etc/nginx/sited-enabled/yoursite.com`,在 RHEL/CentOS 上是 `/etc/nginx/conf.d/nginx.conf`。
本文中,我们需要编辑443端口(SSL)的 `server` 配置中的部分。在文末你可以看到完整的配置例子。
*在编辑之前切记备份一下配置文件!*
### 野兽攻击(BEAST)和 RC4
简单的说,<ruby> 野兽攻击 <rp> ( </rp> <rt> BEAST </rt> <rp> ) </rp></ruby>就是通过篡改一个加密算法的 <ruby> 密码块链 <rp> ( </rp> <rt> CBC,cipher block chaining </rt> <rp> ) </rp></ruby>的模式,从而可以对部分编码流量悄悄解码。更多信息参照上面的链接。
针对<ruby> 野兽攻击 <rp> ( </rp> <rt> BEAST </rt> <rp> ) </rp></ruby>,较新的浏览器已经启用了客户端缓解方案。推荐方案是禁用 TLS 1.0 的所有加密算法,仅允许 RC4 算法。然而,[针对 RC4 算法的攻击也越来越多](http://www.isg.rhul.ac.uk/tls/) ,很多已经从理论上逐步发展为实际可行的攻击方式。此外,有理由相信 NSA 已经实现了他们所谓的“大突破”——攻破 RC4 。
禁用 RC4 会有几个后果。其一,当用户使用老旧的浏览器时,比如 Windows XP 上的 IE 会用 3DES 来替代 RC4。3DES 要比 RC4 更安全,但是它的计算成本更高,你的服务器就需要为这些用户付出更多的处理成本。其二,RC4 算法能减轻<ruby> 野兽攻击 <rp> ( </rp> <rt> BEAST </rt> <rp> ) </rp></ruby>的危害,如果禁用 RC4 会导致 TLS 1.0 用户会换到更容易受攻击的 AES-CBC 算法上(通常服务器端的对<ruby> 野兽攻击 <rp> ( </rp> <rt> BEAST </rt> <rp> ) </rp></ruby>的“修复方法”是让 RC4 优先于其它算法)。我认为 RC4 的风险要高于<ruby> 野兽攻击 <rp> ( </rp> <rt> BEAST </rt> <rp> ) </rp></ruby>的风险。事实上,有了客户端缓解方案(Chrome 和 Firefox 提供了缓解方案),<ruby> 野兽攻击 <rp> ( </rp> <rt> BEAST </rt> <rp> ) </rp></ruby>就不是什么大问题了。而 RC4 的风险却在增长:随着时间推移,对加密算法的破解会越来越多。
### 怪物攻击(FREAK)
<ruby> 怪物攻击 <rp> ( </rp> <rt> FREAK </rt> <rp> ) </rp></ruby>是一种中间人攻击,它是由来自 [INRIA、微软研究院和 IMDEA](https://www.smacktls.com/) 的密码学家们所发现的。<ruby> 怪物攻击 <rp> ( </rp> <rt> FREAK </rt> <rp> ) </rp></ruby>的缩写来自“<ruby> RSA 出口密钥因子分解 <rp> ( </rp> <rt> Factoring RSA-EXPORT Keys </rt> <rp> ) </rp></ruby>”
这个漏洞可上溯到上世纪九十年代,当时美国政府禁止出口加密软件,除非其使用编码密钥长度不超过512位的出口加密套件。
这造成了一些现在的 TLS 客户端存在一个缺陷,这些客户端包括: 苹果的 SecureTransport 、OpenSSL。这个缺陷会导致它们会接受出口降级 RSA 密钥,即便客户端并没有要求使用出口降级 RSA 密钥。这个缺陷带来的影响很讨厌:在客户端存在缺陷,且服务器支持出口降级 RSA 密钥时,会发生中间人攻击,从而导致连接的强度降低。
攻击分为两个组成部分:首先是服务器必须接受“<ruby> 出口降级 RSA 密钥 <rp> ( </rp> <rt> export grade RSA </rt> <rp> ) </rp></ruby>”。
中间人攻击可以按如下流程:
* 在客户端的 Hello 消息中,要求标准的 RSA 加密套件。
* 中间人攻击者修改该消息为<ruby> ‘输出级 RSA 密钥’ <rp> ( </rp> <rt> export RSA </rt> <rp> ) </rp></ruby>。
* 服务器回应一个512位的输出级 RSA 密钥,并以其长期密钥签名。
* 由于 OpenSSL/SecureTransport 的缺陷,客户端会接受这个弱密钥。
* 攻击者根据 RSA 模数分解因子来恢复相应的 RSA 解密密钥。
* 当客户端编码<ruby> ‘预主密码’ <rp> ( </rp> <rt> pre-master secret </rt> <rp> ) </rp></ruby>给服务器时,攻击者现在就可以解码它并恢复 TLS 的<ruby> ‘主密码’ <rp> ( </rp> <rt> master secret </rt> <rp> ) </rp></ruby>。
* 从这里开始,攻击者就能看到了传输的明文并注入任何东西了。
本文所提供的加密套件不启用输出降级加密,请确认你的 OpenSSL 是最新的,也强烈建议你将客户端也升级到新的版本。
### 心血漏洞(Heartbleed)
<ruby> 心血漏洞 <rp> ( </rp> <rt> Heartbleed </rt> <rp> ) </rp></ruby> 是一个于2014年4月公布的 OpenSSL 加密库的漏洞,它是一个被广泛使用的传输层安全(TLS)协议的实现。无论是服务器端还是客户端在 TLS 中使用了有缺陷的 OpenSSL,都可以被利用该缺陷。由于它是因 DTLS 心跳扩展(RFC 6520)中的输入验证不正确(缺少了边界检查)而导致的,所以该漏洞根据“心跳”而命名。这个漏洞是一种缓存区超读漏洞,它可以读取到本不应该读取的数据。
哪个版本的 OpenSSL 受到<ruby> 心血漏洞 <rp> ( </rp> <rt> Heartbleed </rt> <rp> ) </rp></ruby>的影响?
各版本情况如下:
* OpenSSL 1.0.1 直到 1.0.1f (包括)**存在**该缺陷
* OpenSSL 1.0.1g **没有**该缺陷
* OpenSSL 1.0.0 分支**没有**该缺陷
* OpenSSL 0.9.8 分支**没有**该缺陷
这个缺陷是2011年12月引入到 OpenSSL 中的,并随着 2012年3月14日 OpenSSL 发布的 1.0.1 而泛滥。2014年4月7日发布的 OpenSSL 1.0.1g 修复了该漏洞。
升级你的 OpenSSL 就可以避免该缺陷。
### SSL 压缩(罪恶攻击 CRIME)
<ruby> 罪恶攻击 <rp> ( </rp> <rt> CRIME </rt> <rp> ) </rp></ruby>使用 SSL 压缩来完成它的魔法,SSL 压缩在下述版本是默认关闭的: nginx 1.1.6及更高/1.0.9及更高(如果使用了 OpenSSL 1.0.0及更高), nginx 1.3.2及更高/1.2.2及更高(如果使用较旧版本的 OpenSSL)。
如果你使用一个早期版本的 nginx 或 OpenSSL,而且你的发行版没有向后移植该选项,那么你需要重新编译没有一个 ZLIB 支持的 OpenSSL。这会禁止 OpenSSL 使用 DEFLATE 压缩方式。如果你禁用了这个,你仍然可以使用常规的 HTML DEFLATE 压缩。
### SSLv2 和 SSLv3
SSLv2 是不安全的,所以我们需要禁用它。我们也禁用 SSLv3,因为 TLS 1.0 在遭受到降级攻击时,会允许攻击者强制连接使用 SSLv3,从而禁用了<ruby> 前向安全性 <rp> ( </rp> <rt> forward secrecy </rt> <rp> ) </rp></ruby>。
如下编辑配置文件:
```
ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
```
### 卷毛狗攻击(POODLE)和 TLS-FALLBACK-SCSV
SSLv3 会受到[卷毛狗漏洞(POODLE)](https://raymii.org/s/articles/Check_servers_for_the_Poodle_bug.html)的攻击。这是禁用 SSLv3 的主要原因之一。
Google 提出了一个名为 [TLS\_FALLBACK\_SCSV](https://tools.ietf.org/html/draft-ietf-tls-downgrade-scsv-00) 的SSL/TLS 扩展,它用于防止强制 SSL 降级。如果你升级 到下述的 OpenSSL 版本会自动启用它。
* OpenSSL 1.0.1 带有 TLS\_FALLBACK\_SCSV 1.0.1j 及更高。
* OpenSSL 1.0.0 带有 TLS\_FALLBACK\_SCSV 1.0.0o 及更高。
* OpenSSL 0.9.8 带有 TLS\_FALLBACK\_SCSV 0.9.8zc 及更高。
[更多信息请参照 NGINX 文档](http://wiki.nginx.org/HttpSslModule#ssl_protocols)。
### 加密套件(cipher suite)
<ruby> 前向安全性 <rp> ( </rp> <rt> Forward Secrecy </rt> <rp> ) </rp></ruby>用于在长期密钥被破解时确保会话密钥的完整性。<ruby> 完备的前向安全性 <rp> ( </rp> <rt> PFS,Perfect Forward Secrecy </rt> <rp> ) </rp></ruby>是指强制在每个/每次会话中推导新的密钥。
这就是说,泄露的私钥并不能用来解密(之前)记录下来的 SSL 通讯。
提供<ruby> 完备的前向安全性 <rp> ( </rp> <rt> PFS,Perfect Forward Secrecy </rt> <rp> ) </rp></ruby>功能的是那些使用了一种 Diffie-Hellman 密钥交换的短暂形式的加密套件。它们的缺点是系统开销较大,不过可以使用椭圆曲线的变体来改进。
以下两个加密套件是我推荐的,之后[Mozilla 基金会](https://wiki.mozilla.org/Security/Server_Side_TLS)也推荐了。
推荐的加密套件:
```
ssl_ciphers 'AES128+EECDH:AES128+EDH';
```
向后兼容的推荐的加密套件(IE6/WinXP):
```
ssl_ciphers "ECDHE-RSA-AES256-GCM-SHA384:ECDHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GCM-SHA384:DHE-RSA-AES128-GCM-SHA256:ECDHE-RSA-AES256-SHA384:ECDHE-RSA-AES128-SHA256:ECDHE-RSA-AES256-SHA:ECDHE-RSA-AES128-SHA:DHE-RSA-AES256-SHA256:DHE-RSA-AES128-SHA256:DHE-RSA-AES256-SHA:DHE-RSA-AES128-SHA:ECDHE-RSA-DES-CBC3-SHA:EDH-RSA-DES-CBC3-SHA:AES256-GCM-SHA384:AES128-GCM-SHA256:AES256-SHA256:AES128-SHA256:AES256-SHA:AES128-SHA:DES-CBC3-SHA:HIGH:!aNULL:!eNULL:!EXPORT:!DES:!MD5:!PSK:!RC4";
```
如果你的 OpenSSL 版本比较旧,不可用的加密算法会自动丢弃。应该一直使用上述的完整套件,让 OpenSSL 选择一个它所支持的。
加密套件的顺序是非常重要的,因为其决定了优先选择哪个算法。上述优先推荐的算法中提供了PFS(完备的前向安全性)。
较旧版本的 OpenSSL 也许不能支持这个算法的完整列表,AES-GCM 和一些 ECDHE 算法是相当新的,在 Ubuntu 和 RHEL 中所带的绝大多数 OpenSSL 版本中不支持。
#### 优先顺序的逻辑
* ECDHE+AESGCM 加密是首选的。它们是 TLS 1.2 加密算法,现在还没有广泛支持。当前还没有对它们的已知攻击。
* PFS 加密套件好一些,首选 ECDHE,然后是 DHE。
* AES 128 要好于 AES 256。有一个关于 AES256 带来的安全提升程度是否值回成本的[讨论](http://www.mail-archive.com/dev-tech-crypto@lists.mozilla.org/msg11247.html),结果是显而易见的。目前,AES128 要更值一些,因为它提供了不错的安全水准,确实很快,而且看起来对时序攻击更有抵抗力。
* 在向后兼容的加密套件里面,AES 要优于 3DES。在 TLS 1.1及其以上,减轻了针对 AES 的<ruby> 野兽攻击 <rp> ( </rp> <rt> BEAST </rt> <rp> ) </rp></ruby>的威胁,而在 TLS 1.0上则难以实现该攻击。在非向后兼容的加密套件里面,不支持 3DES。
* RC4 整个不支持了。3DES 用于向后兼容。参看 [#RC4\_weaknesses](https://wiki.mozilla.org/Security/Server_Side_TLS#RC4_weaknesses) 中的讨论。
#### 强制丢弃的算法
* aNULL 包含了非验证的 Diffie-Hellman 密钥交换,这会受到<ruby> 中间人 <rp> ( </rp> <rt> MITM </rt> <rp> ) </rp></ruby>攻击
* eNULL 包含了无加密的算法(明文)
* EXPORT 是老旧的弱加密算法,是被美国法律标示为可出口的
* RC4 包含的加密算法使用了已弃用的 ARCFOUR 算法
* DES 包含的加密算法使用了弃用的数据加密标准(DES)
* SSLv2 包含了定义在旧版本 SSL 标准中的所有算法,现已弃用
* MD5 包含了使用已弃用的 MD5 作为哈希算法的所有算法
### 更多设置
确保你也添加了如下行:
```
ssl_prefer_server_ciphers on;
ssl_session_cache shared:SSL:10m;
```
在一个 SSLv3 或 TLSv1 握手过程中选择一个加密算法时,一般使用客户端的首选算法。如果设置了上述配置,则会替代地使用服务器端的首选算法。
* [关于 ssl\_prefer\_server\_ciphers 的更多信息](http://wiki.nginx.org/HttpSslModule#ssl_prefer_server_ciphers)
* [关于 ssl\_ciphers 的更多信息](http://wiki.nginx.org/HttpSslModule#ssl_ciphers)
### 前向安全性和 Diffie Hellman Ephemeral (DHE)参数
<ruby> 前向安全性 <rp> ( </rp> <rt> Forward Secrecy </rt> <rp> ) </rp></ruby>的概念很简单:客户端和服务器协商一个永不重用的密钥,并在会话结束时销毁它。服务器上的 RSA 私钥用于客户端和服务器之间的 Diffie-Hellman 密钥交换签名。从 Diffie-Hellman 握手中获取的预主密钥会用于之后的编码。因为预主密钥是特定于客户端和服务器之间建立的某个连接,并且只用在一个限定的时间内,所以称作<ruby> 短暂模式 <rp> ( </rp> <rt> Ephemeral </rt> <rp> ) </rp></ruby>。
使用了前向安全性,如果一个攻击者取得了一个服务器的私钥,他是不能解码之前的通讯信息的。这个私钥仅用于 Diffie Hellman 握手签名,并不会泄露预主密钥。Diffie Hellman 算法会确保预主密钥绝不会离开客户端和服务器,而且不能被中间人攻击所拦截。
所有版本的 nginx(如1.4.4)都依赖于 OpenSSL 给 Diffie-Hellman (DH)的输入参数。不幸的是,这意味着 Diffie-Hellman Ephemeral(DHE)将使用 OpenSSL 的默认设置,包括一个用于密钥交换的1024位密钥。因为我们正在使用2048位证书,DHE 客户端就会使用一个要比非 DHE 客户端更弱的密钥交换。
我们需要生成一个更强壮的 DHE 参数:
```
cd /etc/ssl/certs
openssl dhparam -out dhparam.pem 4096
```
然后告诉 nginx 将其用作 DHE 密钥交换:
```
ssl_dhparam /etc/ssl/certs/dhparam.pem;
```
### OCSP 装订(Stapling)
当连接到一个服务器时,客户端应该使用<ruby> 证书吊销列表 <rp> ( </rp> <rt> CRL,Certificate Revocation List </rt> <rp> ) </rp></ruby>或<ruby> 在线证书状态协议 <rp> ( </rp> <rt> OCSP,Online Certificate Status Protocol </rt> <rp> ) </rp></ruby>记录来校验服务器证书的有效性。CRL 的问题是它已经增长的太大了,永远也下载不完了。
OCSP 更轻量级一些,因为我们每次只请求一条记录。但是副作用是当连接到一个服务器时必须对第三方 OCSP 响应器发起 OCSP 请求,这就增加了延迟和带来了潜在隐患。事实上,CA 所运营的 OCSP 响应器非常不可靠,浏览器如果不能及时收到答复,就会静默失败。攻击者通过 DoS 攻击一个 OCSP 响应器可以禁用其校验功能,这样就降低了安全性。
解决方法是允许服务器在 TLS 握手中发送缓存的 OCSP 记录,以绕开 OCSP 响应器。这个机制节省了客户端和 OCSP 响应器之间的通讯,称作 OCSP 装订。
客户端会在它的 CLIENT HELLO 中告知其支持 status\_request TLS 扩展,服务器仅在客户端请求它的时候才发送缓存的 OCSP 响应。
大多数服务器最多会缓存 OCSP 响应48小时。服务器会按照常规的间隔连接到 CA 的 OCSP 响应器来获取刷新的 OCSP 记录。OCSP 响应器的位置可以从签名的证书中的<ruby> 授权信息访问 <rp> ( </rp> <rt> Authority Information Access </rt> <rp> ) </rp></ruby>字段中获得。
* [阅读我的教程:在 NGINX 中启用 OCSP 装订](https://raymii.org/s/tutorials/OCSP_Stapling_on_nginx.html)
### HTTP 严格传输安全(HSTS)
如有可能,你应该启用 [HTTP 严格传输安全(HSTS)](https://en.wikipedia.org/wiki/HTTP_Strict_Transport_Security),它会引导浏览器和你的站点之间的通讯仅通过 HTTPS。
* [阅读我关于 HSTS 的文章,了解如何配置它](/article-5266-1.html)
### HTTP 公钥固定扩展(HPKP)
你也应该启用 [HTTP 公钥固定扩展(HPKP)](https://wiki.mozilla.org/SecurityEngineering/Public_Key_Pinning)。
公钥固定的意思是一个证书链必须包括一个白名单中的公钥。它确保仅有白名单中的 CA 才能够为某个域名签署证书,而不是你的浏览器中存储的任何 CA。
我已经写了一篇[关于 HPKP 的背景理论及在 Apache、Lighttpd 和 NGINX 中配置例子的文章](/article-5282-1.html)。
### 配置范例
```
server {
listen [::]:443 default_server;
ssl on;
ssl_certificate_key /etc/ssl/cert/raymii_org.pem;
ssl_certificate /etc/ssl/cert/ca-bundle.pem;
ssl_ciphers 'AES128+EECDH:AES128+EDH:!aNULL';
ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
ssl_session_cache shared:SSL:10m;
ssl_stapling on;
ssl_stapling_verify on;
resolver 8.8.4.4 8.8.8.8 valid=300s;
resolver_timeout 10s;
ssl_prefer_server_ciphers on;
ssl_dhparam /etc/ssl/certs/dhparam.pem;
add_header Strict-Transport-Security max-age=63072000;
add_header X-Frame-Options DENY;
add_header X-Content-Type-Options nosniff;
root /var/www/;
index index.html index.htm;
server_name raymii.org;
}
```
### 结尾
如果你使用了上述配置,你需要重启 nginx:
```
# 首先检查配置文件是否正确
/etc/init.d/nginx configtest
# 然后重启
/etc/init.d/nginx restart
```
现在使用 [SSL Labs 测试](https://www.ssllabs.com/ssltest/)来看看你是否能得到一个漂亮的“A”。当然了,你也得到了一个安全的、强壮的、经得起考验的 SSL 配置!
* [参考 Mozilla 关于这方面的内容](https://wiki.mozilla.org/Security/Server_Side_TLS)
---
via: <https://raymii.org/s/tutorials/Strong_SSL_Security_On_nginx.html>
作者:[Remy van Elst](https://raymii.org/) 译者:[wxy](https://github.com/wxy) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 200 | OK | [Skip to main content](#main)
#
[Raymii.org
](https://raymii.org/s/)
Quis custodiet ipsos custodes?[Home](/s/)|
[About](/s/static/About.html)|
[All pages](/s/tags/all.html)|
[Cluster Status](/s/software/Sparkling_Network.html)|
[RSS Feed](https://raymii.org/s/feed.xml)
## Strong SSL Security on nginx
Published: 14-06-2015 | Last update: 27-04-2019 | Author: Remy van Elst | [Text only version of this article](Strong_SSL_Security_On_nginx.txt)
**❗ This post is over five years old. It may no longer be up to date. Opinions may have changed.**
### Table of Contents
-
[SSL Protocols](#toc_0) -
[The Cipher Suite](#toc_1) -
[Extra settings](#toc_4) -
[Forward Secrecy & Diffie Hellman Ephemeral Parameters](#toc_5) -
[OCSP Stapling](#toc_6) -
[HTTP Strict Transport Security](#toc_7) -
[HTTP Public Key Pinning Extension](#toc_8) -
[Poodle and TLS-FALLBACK-SCSV](#toc_9) -
[The BEAST attack and RC4](#toc_10) -
[Factoring RSA-EXPORT Keys (FREAK)](#toc_11) -
[Logjam (DH EXPORT)](#toc_12) -
[Heartbleed](#toc_13) -
[SSL Compression (CRIME attack)](#toc_14) -
[Conclusion](#toc_15)
This tutorial shows you how to set up strong SSL security on the nginx webserver. We do this by updating OpenSSL to the latest version to mitigate attacks like Heartbleed, disabling SSL Compression and EXPORT ciphers to mitigate attacks like FREAK, CRIME and LogJAM, disabling SSLv3 and below because of vulnerabilities in the protocol and we will set up a strong ciphersuite that enables Forward Secrecy when possible. We also enable HSTS and HPKP. This way we have a strong and future proof ssl configuration and we get an A+ on the Qually Labs SSL Test.
I've written an Open Source [SSL server test](https://raymii.org/s/software/OpenSSL_Decoder.html). You can use it to test your
configuration, as an addition to the other SSL tests our there. It is fast,
shows you all the information so you can make your own informed decision (no
ratings), and the results are saved so you can compare different settings. You
can test your site via [https://ssldecoder.org](https://ssldecoder.org).
I've also written a handy tool which notifies you when your certificates are
about to expire. It is open source so you can host it yourself internally and
there is a hosted version available at [https://certificatemonitor.org](https://certificatemonitor.org).
I've created a website with [Copy-pastable strong cipherssuites for NGINX,
Apache, Lighttpd and other software: https://cipherli.st](https://cipherli.st/). Handy if you don't
want to read this entire tutorial. This tutorial and [https://cipherli.st](https://cipherli.st/)
are updated continuously as new vulnerabilities are discovered.
**Recently I removed all Google Ads from this site due to their invasive tracking, as well as Google Analytics. Please, if you found this content useful, consider a small donation using any of the options below:**
[I'm developing an open source monitoring app called Leaf Node Monitoring, for windows, linux & android. Go check it out!](https://leafnode.nl)
[Consider sponsoring me on Github. It means the world to me if you show your appreciation and you'll help pay the server costs.](https://github.com/sponsors/RaymiiOrg/)
[You can also sponsor me by getting a Digital Ocean VPS. With this referral link you'll get $200 credit for 60 days. Spend $25 after your credit expires and I'll get $25!](https://www.digitalocean.com/?refcode=7435ae6b8212)
This tutorial works with the stricter requirements of the SSL Labs test [announced on the 21st of January 2014](http://blog.ivanristic.com/2014/01/ssl-labs-stricter-security-requirements-for-2014.html) (It already did before that, if you follow(ed) it you get an A+)
[This tutorial is also available for Apache](https://raymii.org/s/tutorials/Strong_SSL_Security_On_Apache2.html)[This tutorial is also available for Lighttpd](https://raymii.org/s/tutorials/Strong_SSL_Security_On_lighttpd.html)[This tutorial is also available for FreeBSD, NetBSD and OpenBSD over at the BSD Now podcast](http://www.bsdnow.tv/episodes/2014_08_20-engineering_nginx)
You can find more info on the topics by following the links below:
[BEAST Attack](https://raymii.org/s/tutorials/HTTP_Strict_Transport_Security_for_Apache_NGINX_and_Lighttpd.html)[CRIME Attack](https://wiki.mozilla.org/SecurityEngineering/Public_Key_Pinning)[Heartbleed](https://raymii.org/s/articles/HTTP_Public_Key_Pinning_Extension_HPKP.html)[FREAK Attack](https://www.ssllabs.com/ssltest/)- [Perfect Forward Secrecy][27]
- [Dealing with RC4 and BEAST][28]
We are going to edit the nginx settings in the file ```
/etc/nginx/sites-
enabled/yoursite.com
```
(On Ubuntu/Debian) or in `/etc/nginx/conf.d/nginx.conf`
(On RHEL/CentOS).
For the entire tutorial, you need to edit the parts between the `server`
block
for the server config for port 443 (ssl config). At the end of the tutorial you
can find the complete config example.
*Make sure you back up the files before editing them!*
### SSL Protocols
All protocols other than TLS 1.2 and TLS 1.3 are considered unsafe.
Edit the config file:
```
ssl_protocols TLSv1.2 TLSv1.3; # Requires nginx >= 1.13.0 else use TLSv1.2
```
### The Cipher Suite
Forward Secrecy ensures the integrity of a session key in the event that a long- term key is compromised. PFS accomplishes this by enforcing the derivation of a new key for each and every session.
This means that when the private key gets compromised it cannot be used to decrypt recorded SSL traffic.
The cipher suites that provide Perfect Forward Secrecy are those that use an ephemeral form of the Diffie-Hellman key exchange. Their disadvantage is their overhead, which can be improved by using the elliptic curve variants.
The following two ciphersuites are recommended by me, and the latter by [the
Mozilla Foundation](https://wiki.mozilla.org/Security/Server_Side_TLS).
The recommended cipher suite:
```
ssl_ciphers ECDHE-RSA-AES256-GCM-SHA512:DHE-RSA-AES256-GCM-SHA512:ECDHE-RSA-AES256-GCM-SHA384:DHE-RSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-SHA384;
```
The recommended cipher suite for backwards compatibility (IE6/WinXP):
```
ssl_ciphers "EECDH+AESGCM:EDH+AESGCM:ECDHE-RSA-AES128-GCM-SHA256:AES256+EECDH:DHE-RSA-AES128-GCM-SHA256:AES256+EDH:ECDHE-RSA-AES256-GCM-SHA384:DHE-RSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-SHA384:ECDHE-RSA-AES128-SHA256:ECDHE-RSA-AES256-SHA:ECDHE-RSA-AES128-SHA:DHE-RSA-AES256-SHA256:DHE-RSA-AES128-SHA256:DHE-RSA-AES256-SHA:DHE-RSA-AES128-SHA:ECDHE-RSA-DES-CBC3-SHA:EDH-RSA-DES-CBC3-SHA:AES256-GCM-SHA384:AES128-GCM-SHA256:AES256-SHA256:AES128-SHA256:AES256-SHA:AES128-SHA:DES-CBC3-SHA:HIGH:!aNULL:!eNULL:!EXPORT:!DES:!MD5:!PSK:!RC4";
```
If your version of OpenSSL is old, unavailable ciphers will be discarded automatically. Always use the full ciphersuite above and let OpenSSL pick the ones it supports.
The ordering of a ciphersuite is very important because it decides which algorithms are going to be selected in priority. The recommendation above prioritizes algorithms that provide perfect forward secrecy.
Older versions of OpenSSL may not return the full list of algorithms. AES-GCM and some ECDHE are fairly recent, and not present on most versions of OpenSSL shipped with Ubuntu or RHEL.
#### Prioritization logic
- ECDHE+AESGCM ciphers are selected first. These are TLS 1.2 ciphers. No known attack currently target these ciphers.
- PFS ciphersuites are preferred, with ECDHE first, then DHE.
- AES 128 is preferred to AES 256. There has been
[discussions](http://www.mail-archive.com/dev-tech-crypto@lists.mozilla.org/msg11247.html)on whether AES256 extra security was worth the cost , and the result is far from obvious. At the moment, AES128 is preferred, because it provides good security, is really fa st, and seems to be more resistant to timing attacks. - In the backward compatible ciphersuite, AES is preferred to 3DES. BEAST attacks on AES are mitigated in TLS 1.1 and a bove, and difficult to achieve in TLS 1.0. In the non-backward compatible ciphersuite, 3DES is not present.
- RC4 is removed entirely. 3DES is used for backward compatibility. See discussion in
[#RC4_weaknesses](https://wiki.mozilla.org/Security/Server_Side_TLS#RC4_weaknesses)
#### Mandatory discards
- aNULL contains non-authenticated Diffie-Hellman key exchanges, that are subject to Man-In-The-Middle (MITM) attacks
- eNULL contains null-encryption ciphers (cleartext)
- EXPORT are legacy weak ciphers that were marked as exportable by US law
- RC4 contains ciphers that use the deprecated ARCFOUR algorithm
- DES contains ciphers that use the deprecated Data Encryption Standard
- SSLv2 contains all ciphers that were defined in the old version of the SSL standard, now deprecated
- MD5 contains all the ciphers that use the deprecated message digest 5 as the hashing algorithm
### Extra settings
Make sure you also add these lines:
```
ssl_prefer_server_ciphers on;
ssl_session_cache shared:SSL:10m;
```
When choosing a cipher during an SSLv3 or TLSv1 handshake, normally the client's preference is used. If this directive is enabled, the server's preference will be used instead.
[More info on ssl prefer server_ciphers](http://wiki.nginx.org/HttpSslModule#ssl_prefer_server_ciphers)
[More info on ssl_ciphers](http://wiki.nginx.org/HttpSslModule#ssl_ciphers)
### Forward Secrecy & Diffie Hellman Ephemeral Parameters
The concept of forward secrecy is simple: client and server negotiate a key that never hits the wire, and is destroyed at the end of the session. The RSA private from the server is used to sign a Diffie- Hellman key exchange between the client and the server. The pre-master key obtained from the Diffie-Hellman handshake is then used for encryption. Since the pre-master key is specific to a connection between a client and a server, and used only for a limited amount of time, it is called Ephemeral.
With Forward Secrecy, if an attacker gets a hold of the server's private key, it will not be able to decrypt past communications. The private key is only used to sign the DH handshake, which does not reveal the pre- master key. Diffie-Hellman ensures that the pre-master keys never leave the client and the server, and cannot be intercepted by a MITM.
All versions of nginx as of 1.4.4 rely on OpenSSL for input parameters to Diffie-Hellman (DH). Unfortunately, this means that Ephemeral Diffie- Hellman (DHE) will use OpenSSL's defaults, which include a 1024-bit key for the key- exchange. Since we're using a 2048-bit certificate, DHE clients will use a weaker key-exchange than non-ephemeral DH clients.
We need generate a stronger DHE parameter:
```
openssl dhparam -out /etc/ssl/certsdhparam.pem 4096
```
And then tell nginx to use it for DHE key-exchange:
```
ssl_dhparam /etc/ssl/certs/dhparam.pem;
ssl_ecdh_curve secp384r1; # Requires nginx >= 1.1.0
```
### OCSP Stapling
When connecting to a server, clients should verify the validity of the server certificate using either a Certificate Revocation List (CRL), or an Online Certificate Status Protocol (OCSP) record. The problem with CRL is that the lists have grown huge and takes forever to download.
OCSP is much more lightweight, as only one record is retrieved at a time. But the side effect is that OCSP requests must be made to a 3rd party OCSP responder when connecting to a server, which adds latency and potential failures. In fact, the OCSP responders operated by CAs are often so unreliable that browser will fail silently if no response is received in a timely manner. This reduces security, by allowing an attacker to DoS an OCSP responder to disable the validation.
The solution is to allow the server to send its cached OCSP record during the TLS handshake, therefore bypassing the OCSP responder. This mechanism saves a roundtrip between the client and the OCSP responder, and is called OCSP Stapling.
The server will send a cached OCSP response only if the client requests it, by announcing support for the status_request TLS extension in its CLIENT HELLO.
Most servers will cache OCSP response for up to 48 hours. At regular intervals, the server will connect to the OCSP responder of the CA to retrieve a fresh OCSP record. The location of the OCSP responder is taken from the Authority Information Access field of the signed certificate.
[View my tutorial on enabling OCSP stapling on NGINX](https://raymii.org/s/tutorials/OCSP_Stapling_on_nginx.html)
### HTTP Strict Transport Security
When possible, you should enable [HTTP Strict Transport Security (HSTS)](https://en.wikipedia.org/wiki/HTTP_Strict_Transport_Security),
which instructs browsers to communicate with your site only over HTTPS.
[View my article on HTST to see how to configure it.](https://raymii.org/s/tutorials/HTTP_Strict_Transport_Security_for_Apache_NGINX_and_Lighttpd.html)
### HTTP Public Key Pinning Extension
You should also enable the [HTTP Public Key Pinning Extension](https://wiki.mozilla.org/SecurityEngineering/Public_Key_Pinning).
Public Key Pinning means that a certificate chain must include a whitelisted
public key. It ensures only whitelisted Certificate Authorities (CA) can sign
certificates for `*.example.com`
, and not any CA in your browser store.
I've written an article about it that has background theory and configuration
examples for Apache, Lighttpd and NGINX: [https://raymii.org/s/articles/HTTP
Public Key Pinning Extension_HPKP.html](https://raymii.org/s/articles/HTTP_Public_Key_Pinning_Extension_HPKP.html)
### Poodle and TLS-FALLBACK-SCSV
SSLv3 allows exploiting of the [POODLE](https://raymii.org/s/articles/Check_servers_for_the_Poodle_bug.html) bug. This is one more major reason
to disable this.
Google have proposed an extension to SSL/TLS named [TLS FALLBACK SCSV](https://tools.ietf.org/html/draft-ietf-tls-downgrade-scsv-00)
that seeks to prevent forced SSL downgrades. This is automatically enabled if
you upgrade OpenSSL to the following versions:
- OpenSSL 1.0.1 has TLS
*FALLBACK*SCSV in 1.0.1j and higher. - OpenSSL 1.0.0 has TLS
*FALLBACK*SCSV in 1.0.0o and higher. - OpenSSL 0.9.8 has TLS
*FALLBACK*SCSV in 0.9.8zc and higher.
[More info on the NGINX documentation](http://wiki.nginx.org/HttpSslModule#ssl_protocols)
### The BEAST attack and RC4
In short, by tampering with an encryption algorithm's CBC - cipher block chaining - mode's, portions of the encrypted traffic can be secretly decrypted. More info on the above link.
Recent browser versions have enabled client side mitigation for the beast attack. The recommendation was to disable all TLS 1.0 ciphers and only offer RC4. However, [RC4 has a growing list of attacks against it],(http://www.isg.rhul.ac.uk/tls/) many of which have crossed the line from theoretical to practical. Moreover, there is reason to believe that the NSA has broken RC4, their so-called "big breakthrough."
Disabling RC4 has several ramifications. One, users with shitty browsers such as Internet Explorer on Windows XP will use 3DES in lieu. Triple- DES is more secure than RC4, but it is significantly more expensive. Your server will pay the cost for these users. Two, RC4 mitigates BEAST. Thus, disabling RC4 makes TLS 1.0 users susceptible to that attack, by moving them to AES-CBC (the usual server-side BEAST "fix" is to prioritize RC4 above all else). I am confident that the flaws in RC4 significantly outweigh the risks from BEAST. Indeed, with client-side mitigation (which Chrome and Firefox both provide), BEAST is a nonissue. But the risk from RC4 only grows: More cryptanalysis will surface over time.
### Factoring RSA-EXPORT Keys (FREAK)
FREAK is a man-in-the-middle (MITM) vulnerability discovered by a group of
cryptographers at [INRIA, Microsoft Research and IMDEA](https://www.smacktls.com/). FREAK stands for
"Factoring RSA-EXPORT Keys."
The vulnerability dates back to the 1990s, when the US government banned selling crypto software overseas, unless it used export cipher suites which involved encryption keys no longer than 512-bits.
It turns out that some modern TLS clients - including Apple's SecureTransport and OpenSSL - have a bug in them. This bug causes them to accept RSA export- grade keys even when the client didn't ask for export-grade RSA. The impact of this bug can be quite nasty: it admits a 'man in the middle' attack whereby an active attacker can force down the quality of a connection, provided that the client is vulnerable and the server supports export RSA.
There are two parts of the attack as the server must also accept "export grade RSA."
The MITM attack works as follows:
- In the client's Hello message, it asks for a standard 'RSA' ciphersuite.
- The MITM attacker changes this message to ask for 'export RSA'.
- The server responds with a 512-bit export RSA key, signed with its long-term key.
- The client accepts this weak key due to the OpenSSL/SecureTransport bug.
- The attacker factors the RSA modulus to recover the corresponding RSA decryption key.
- When the client encrypts the 'pre-master secret' to the server, the attacker can now decrypt it to recover the TLS 'm aster secret'.
- From here on out, the attacker sees plaintext and can inject anything it wants.
The ciphersuite offered here on this page does not enable EXPORT grade ciphers. Make sure your OpenSSL is updated to the latest available version and urge your clients to also use upgraded software.
### Logjam (DH EXPORT)
[Researchers](https://weakdh.org/) from several universities and institutions conducted a study
that found an issue in the TLS protocol. In a report the researchers report two
attack methods.
Diffie-Hellman key exchange allows that depend on TLS to agree on a shared key and negotiate a secure session over a plain text connection.
With the first attack, a man-in-the-middle can downgrade a vulnerable TLS connection to 512-bit export-grade cryptography which would allow the attacker to read and change the data. The second threat is that many servers and use the same prime numbers for Diffie-Hellman key exchange instead of generating their own unique DH parameters.
The team estimates that an academic team can break 768-bit primes and that a nation-state could break a 1024-bit prime. By breaking one 1024-bit prime, one could eavesdrop on 18 percent of the top one million HTTPS domains. Breaking a second prime would open up 66 percent of VPNs and 26 percent of SSH servers.
Later on in this guide we generate our own unique DH parameters and we use a ciphersuite that does not enable EXPORT grade ciphers. Make sure your OpenSSL is updated to the latest available version and urge your clients to also use upgraded software. Updated browsers refuse DH parameters lower than 768/1024 bit as a fix to this.
[Cloudflare has a detailed guide](https://blog.cloudflare.com/logjam-the-latest-tls-vulnerability-explained/) on logjam.
### Heartbleed
Heartbleed is a security bug disclosed in April 2014 in the OpenSSL cryptography library, which is a widely used implementation of the Transport Layer Security (TLS) protocol. Heartbleed may be exploited regardless of whether the party using a vulnerable OpenSSL instance for TLS is a server or a client. It results from improper input validation (due to a missing bounds check) in the implementation of the DTLS heartbeat extension (RFC6520), thus the bug's name derives from "heartbeat". The vulnerability is classified as a buffer over-read, a situation where more data can be read than should be allowed.
What versions of the OpenSSL are affected by Heartbleed?
Status of different versions:
- OpenSSL 1.0.1 through 1.0.1f (inclusive) are vulnerable
- OpenSSL 1.0.1g is NOT vulnerable
- OpenSSL 1.0.0 branch is NOT vulnerable
- OpenSSL 0.9.8 branch is NOT vulnerable
The bug was introduced to OpenSSL in December 2011 and has been out in the wild since OpenSSL release 1.0.1 on 14th of March 2012. OpenSSL 1.0.1g released on 7th of April 2014 fixes the bug.
By updating OpenSSL you are not vulnerable to this bug.
### SSL Compression (CRIME attack)
The CRIME attack uses SSL Compression to do its magic. SSL compression is turned off by default in nginx 1.1.6+/1.0.9+ (if OpenSSL 1.0.0+ used) and nginx 1.3.2+/1.2.2+ (if older versions of OpenSSL are used).
If you are using al earlier version of nginx or OpenSSL and your distro has not backported this option then you need to recompile OpenSSL without ZLIB support. This will disable the use of OpenSSL using the DEFLATE compression method. If you do this then you can still use regular HTML DEFLATE compression.
### Conclusion
If you have applied the above config lines you need to restart nginx:
```
# Check the config first:
/etc/init.d/nginx configtest
# Then restart:
/etc/init.d/nginx restart
```
Now use the [SSL Labs test](https://www.ssllabs.com/ssltest/) to see if you get a nice A. And, of course, have
a safe, strong and future proof SSL configuration!
[Also read the Mozilla page on the subject](https://wiki.mozilla.org/Security/Server_Side_TLS)
[nginx](../tags/nginx.html),
[security](../tags/security.html),
[ssl](../tags/ssl.html),
[ssl-labs](../tags/ssl-labs.html),
[tls](../tags/tls.html),
[tutorials](../tags/tutorials.html) |
5,377 | 环境音播放器:让人放松的声音,保持你的创造力 | http://www.omgubuntu.co.uk/2015/04/ambient-noise-player-app-for-ubuntu-linux | 2015-05-04T07:32:00 | [
"Ambient Noise"
] | https://linux.cn/article-5377-1.html | ![Rain is a soothing sound for some](/data/attachment/album/201505/03/223347cfqyuqtxtqxmzz3u.jpg)
*对于某些人来说雨声是个令人安心的声音*
**如果我想变得非常有效率,我不能听‘正常’的音乐。它会使我分心,我会开始跟着唱或者让我想起另一首歌,结局就是我在自己的音乐库里到处戳并且……反正,你懂的。**
同样我也不能在寂静的环境中工作(虽然和6只猫生活在一起意味着这不太可能)但是无规律的刺耳声音和突然地咔哒声以及猫叫声会打破寂静。
我的解决办法是听**环境音**。
我发现它能帮助我消除大脑的里的胡思乱想,提供了一个声景覆盖了猫咪玩耍的声音。
环境音就是日常生活中的背景噪音;雨滴在窗户上敲打的声音,咖啡店里人们聊天的嗡嗡声,风中鸟儿们闲聊的声音,等等。
倾听这些声音会强迫一个疯狂运行的大脑减速,重新沉静下来重新把精力聚集到重要的事情上。
### 适用于Ubuntu的环境音应用
![](/data/attachment/album/201505/03/223347rh39ntv9o28vx9n9.jpg)
Google Play和苹果应用商店充满了环境音和白噪声的应用。现在,在Ubuntu里有同样的应用了。
‘[Ambient Noise (环境音)](http://anoise.tuxfamily.org/) ’——人如其名,这是一个专门被设计成播放这种声音的音频播放器。他甚至可以同Ubuntu声音菜单整合到一起,给你‘选择,点击即放松’的体验。
这个应用(又被称为‘ANoise播放器’,由Marcos Costales制作)带有**8个高品质音频**。
这8个预设音频涵盖了多种环境,从下雨时有节奏的声音,到夜晚大自然静谧的旋律,还有下午熙熙攘攘的咖啡店的嗡嗡声。
### 在Ubuntu上安装ANoise播放器
适用于Ubuntu的环境音播放器是个免费的应用而且可以从它专用的PPA里安装。
要这样安装请先打开一个新的终端窗口运行:
```
sudo add-apt-repository ppa:costales/anoise
sudo apt-get update && sudo apt-get install anoise
```
安装好以后只需从Unity Dash(或桌面环境里类同的地方)里打开它,通过声音菜单选择你喜欢的环境音然后……放松吧!这个应用甚至记得你上次用的环境音。
即便如此,你还是要试一试看它是否能满足你的需要。我要说的是让我知道你是怎么想的,但是我将会专心致志到听不到你的声音——你可能也会这样!
---
via: <http://www.omgubuntu.co.uk/2015/04/ambient-noise-player-app-for-ubuntu-linux>
作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[H-mudcup](https://github.com/H-mudcup) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,378 | SuperTuxKart 0.9 已发行 —— Linux 中最好的竞速类游戏越来越棒了! | http://www.omgubuntu.co.uk/2015/04/supertuxkart-0-9-released | 2015-05-04T13:38:00 | [
"SuperTuxKart"
] | https://linux.cn/article-5378-1.html | **热门竞速类游戏 SuperTuxKart 的新版本已经[打包发行](http://supertuxkart.blogspot.co.uk/2015/04/supertuxkart-09-released.html)登陆下载服务器**
![](/data/attachment/album/201505/03/223841ke8fjzejwcwzvl7d.jpg)
*Super Tux Kart 0.9 发行海报*
SuperTuxKart 0.9 相较前一版本做了巨大的升级,内部运行着刚出炉的新引擎(有个炫酷的名字叫‘Antarctica(南极洲)’),目的是要呈现更加炫酷的图形环境,从阴影到场景的纵深,外加卡丁车更好的物理效果。
突出的图形表现也增加了对显卡的要求。SuperTuxKart 开发人员给玩家的建议是,要有图像处理能力比得上(或者,想要完美的话,要超过) Intel HD Graphics 3000, NVIDIA GeForce 8600 或 AMD Radeon HD 3650 的显卡。
### 其他改变
SuperTuxKart 0.9 中与图像的改善同样吸引人眼球的是一对**全新赛道**,新的卡丁车,新的在线账户可以记录和分享**全新推出的成就系统**里赢得的徽章,以及大量的改装和涂装的微调。
点击播放下面的官方发行视频,看看基于调色器的 STK 0.9 所散发的光辉吧。(youtube 视频:<https://www.youtube.com/0FEwDH7XU9Q> )
Ubuntu 用户可以从项目网站上下载新发行版已编译的二进制文件。
* [下载 SuperTuxKart 0.9](http://supertuxkart.sourceforge.net/Downloads)
---
via: <http://www.omgubuntu.co.uk/2015/04/supertuxkart-0-9-released>
作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[H-mudcup](https://github.com/H-mudcup) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,381 | 如何在ubuntu14.04上安装轻量级的Budgie桌面(v8) | http://linoxide.com/ubuntu-how-to/install-lightweight-budgie-v8-desktop-ubuntu/ | 2015-05-04T16:40:00 | [
"Budgie"
] | /article-5381-1.html | Budgie是为Linux发行版定制的旗舰桌面,也是一个定制工程。为思想前卫的用户设计,致力于简单和简洁。它的一个巨大优势是它不是别的项目的fork版本,是从都到尾都独立的。
![Budgie 桌面环境](/data/attachment/album/201505/04/163651ftzrgqtkwvg7jqgf.png)
[Budgie桌面](https://evolve-os.com/budgie/)与GNOME栈紧密结合,使用先进的技术从而提供一个可选择的桌面体验。出于开源理念,这个桌面之后也能在别的Linux发行版中看到。
现在Budgie能够通过面板的设置达到和GNOME2桌面相似的使用体验。
### 0.8版的特点
* 任务栏:支持应用锁定到任务栏
* 任务栏:使用.desktop文件来配置quicklists菜单
* 任务栏:使用.desktop文件来配置图标分辨率
* 任务栏:支持有通知时蓝色闪烁
* 面板:支持默认深色主体
* 添加菜单条的小组件
* 面板:自动隐藏菜单条和工具条(这配置为手动)
* 面板:支持屏幕边缘处阴影
* 面板:动态支持gnome面板主题
* 运行对话框:虚拟刷新
* Budgie菜单: 增加紧凑模式,并默认采用
* Budgie菜单: 按照使用顺序排列菜单项
* Budgie菜单: 移除旧的电源选项
* 编辑器: 在UI中增加所有的菜单选项
* 支持从GNOME 3.10 升级到3.16
* wm: 关闭工作区的动画(v8之后)
* wm: 改变壁纸时更好的动画
### 重要信息
* Budgie [0.8版发行版](https://evolve-os.com/2014/11/16/courageous-budgie-v8-released/)目前只是beta
* 无本地网络管理;可以通过使用ubuntu的小组件解决
* Budgie 是为Evolve OS设计的,因此这个PPA可能会有bug
* GNOME 主题比Ubuntu本地的主题效果更好
* Ubuntu的滚动栏将不在工作
* 如果你想了解的更多可以访问Evolve OS网站
### 安装
现在,我们将在Ubuntu14.04 LTS中安装我们自己的轻量级Budgie桌面。首先,我们要把PPA源添加到我们的Ubuntu中。执行以下命令:
```
$ sudo add-apt-repository ppa:evolve-os/ppa
```
![添加Budgie的ppa源](/data/attachment/album/201505/04/163648yt8ubsgug800n5tc.png)
添加完ppa之后,运行下面的命令更新本地软件仓库。
```
$ sudo apt-get update
```
然后只要执行下面的命令安装
```
$ sudo apt-get install budgie-desktop
```
![安装 Budgie Desktop](/data/attachment/album/201505/04/163648vhlhmza024q2mehm.png)
**注意**
这是一个活跃的开发版本,一些主要的功能可能还不是特别的完善,如:没有网络管理器,没有音量控制组件(可以使用键盘控制),无通知系统并且无法将app锁定到任务栏。
有一个临时解决方案可以禁用叠加滚动栏:设置另外一个默认主题,然后从终端退出当前会话:
```
$ gnome-session-quit
```
![退出 Gnome 会话](/data/attachment/album/201505/04/163649dxybknkhbocoku59.png)
### 登录Budgie会话
安装完成之后,我们能在登录时选择进入budgie桌面。
![选择桌面会话](/data/attachment/album/201505/04/163650a203p81021t39gvp.png)
### 注销当前用户
```
$ budgie-sessioon --logout
```
### 结论
嗨,现在我们已经成功的在 Ubuntu 14.04 LTS 上安装了轻量级 Budgie 桌面环境。Budgie桌面当前正在开发过程中,因此有目前有很多功能的缺失。虽然它是基于Gnome 的 GTK3,但不是完全的复制。Budgie是完全从零开始实现,它的设计是优雅的并且正在不断的完善。如果你有任何问题、评论,请在下面的评论框发表。愿你喜欢 Budgie 桌面 0.8 。
---
via: <http://linoxide.com/ubuntu-how-to/install-lightweight-budgie-v8-desktop-ubuntu/>
作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[johnhoow](https://github.com/johnhoow) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /ubuntu-how-to/install-lightweight-budgie-v8-desktop-ubuntu/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c45e0>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,384 | 在 Linux 中用 nmcli 命令绑定多块网卡 | http://linoxide.com/linux-command/interface-nics-bonding-linux/ | 2015-05-05T08:52:00 | [
"nmcli",
"网卡绑定"
] | /article-5384-1.html | 今天,我们来学习一下在 CentOS 7.x 中如何用 nmcli(Network Manager Command Line Interface:网络管理命令行接口)进行网卡绑定。
网卡(接口)绑定是将多块 **网卡** 逻辑地连接到一起从而允许故障转移或者提高吞吐率的方法。提高服务器网络可用性的一个方式是使用多个网卡。Linux 绑定驱动程序提供了一种将多个网卡聚合到一个逻辑的绑定接口的方法。这是个新的实现绑定的方法,并不影响 linux 内核中旧绑定驱动。
![](/data/attachment/album/201505/04/215715sevw9ec4brcvkcp9.jpg)
**网卡绑定为我们提供了两个主要的好处:**
1. **高带宽**
2. **冗余/弹性**
现在让我们在 CentOS 7 上配置网卡绑定吧。我们需要决定选取哪些接口配置成一个组接口(Team interface)。
运行 **ip link** 命令查看系统中可用的接口。
```
$ ip link
```
![ip link](/data/attachment/album/201505/04/215804g4zkw6wkg9wjgphg.png)
这里我们使用 **eno16777736** 和 **eno33554960** 网卡在 “主动备份” 模式下创建一个组接口。(译者注:关于不同模式可以参考:[多网卡的7种bond模式原理](http://support.huawei.com/ecommunity/bbs/10155553.html))
按照下面的语法,用 **nmcli** 命令为网络组接口创建一个连接。
```
# nmcli con add type team con-name CNAME ifname INAME [config JSON]
```
**CNAME** 指代连接的名称,**INAME** 是接口名称,**JSON** (JavaScript Object Notation) 指定所使用的处理器(runner)。**JSON** 语法格式如下:
```
'{"runner":{"name":"METHOD"}}'
```
**METHOD** 是以下的其中一个:**broadcast、activebackup、roundrobin、loadbalance** 或者 **lacp**。
### 1. 创建组接口
现在让我们来创建组接口。这是我们创建组接口所使用的命令。
```
# nmcli con add type team con-name team0 ifname team0 config '{"runner":{"name":"activebackup"}}'
```
![nmcli con create](/data/attachment/album/201505/04/215804bm9kn9md9nh02m9x.png)
运行 **# nmcli con show** 命令验证组接口配置。
```
# nmcli con show
```
![显示组接口](/data/attachment/album/201505/04/215805p8929ybud7b2cupp.png)
### 2. 添加从设备
现在让我们添加从设备到主设备 team0。这是添加从设备的语法:
```
# nmcli con add type team-slave con-name CNAME ifname INAME master TEAM
```
在这里我们添加 **eno16777736** 和 **eno33554960** 作为 **team0** 接口的从设备。
```
# nmcli con add type team-slave con-name team0-port1 ifname eno16777736 master team0
# nmcli con add type team-slave con-name team0-port2 ifname eno33554960 master team0
```
![添加从设备到 team](/data/attachment/album/201505/04/215805kuorf7hoahhorrrj.png)
再次用命令 **#nmcli con show** 验证连接配置。现在我们可以看到从设备配置信息。
```
#nmcli con show
```
![显示从设备配置](/data/attachment/album/201505/04/215806o2rrgoo1ocke1y5g.png)
### 3. 分配 IP 地址
上面的命令会在 **/etc/sysconfig/network-scripts/** 目录下创建需要的配置文件。
现在让我们为 team0 接口分配一个 IP 地址并启用这个连接。这是进行 IP 分配的命令。
```
# nmcli con mod team0 ipv4.addresses "192.168.1.24/24 192.168.1.1"
# nmcli con mod team0 ipv4.method manual
# nmcli con up team0
```
![分配 ip](/data/attachment/album/201505/04/215806trf9nq6chdqufxhr.png)
### 4. 验证绑定
用 **#ip add show team0** 命令验证 IP 地址信息。
```
#ip add show team0
```
![验证 ip 地址](/data/attachment/album/201505/04/215807oy6ycnyfny5zogzg.png)
现在用 **teamdctl** 命令检查 **主动备份** 配置功能。
```
# teamdctl team0 state
```
![teamdctl 检查主动备份](/data/attachment/album/201505/04/215807sm3ll4dln0plpwql.png)
现在让我们把激活的端口断开连接并再次检查状态来确认主动备份配置是否像希望的那样工作。
```
# nmcli dev dis eno33554960
```
![断开激活端口连接](/data/attachment/album/201505/04/215807nvnq089wnset4b0n.png)
断开激活端口后再次用命令 **#teamdctl team0 state** 检查状态。
```
# teamdctl team0 state
```
![teamdctl 检查断开激活端口连接](/data/attachment/album/201505/04/215808hkbo0ypnfxxnb174.png)
是的,它运行良好!!我们会使用下面的命令连接回到 team0 的断开的连接。
```
#nmcli dev con eno33554960
```
![nmcli dev 连接断开的连接](/data/attachment/album/201505/04/215808z0yjlo8j9fjooz99.png)
我们还有一个 **teamnl** 命令可以显示 **teamnl** 命令的一些选项。
用下面的命令检查在 team0 运行的端口。
```
# teamnl team0 ports
```
![teamnl 检查端口](/data/attachment/album/201505/04/215809vlvfgfayvtsbbgfq.png)
显示 **team0** 当前活动的端口。
```
# teamnl team0 getoption activeport
```
![显示 team0 活动端口](/data/attachment/album/201505/04/215809jc52w65bu61qcbqv.png)
好了,我们已经成功地配置了网卡绑定 :-) ,如果有任何反馈,请告诉我们。
---
via: <http://linoxide.com/linux-command/interface-nics-bonding-linux/>
作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-command/interface-nics-bonding-linux/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c54e0>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,385 | 在 FreeBSD 10.1中安装 Mate 桌面 | http://www.unixmen.com/install-mate-desktop-freebsd-10-1/ | 2015-05-05T14:03:00 | [
"FreeBSD",
"Mate"
] | https://linux.cn/article-5385-1.html | ![](/data/attachment/album/201505/04/220515m790kl2qp910o5ol.jpg)
FreeBSD是全文本模式的系统,然而有些新用户想要使用GUI桌面环境。这个教程就是帮助你在Freebsd 10.1中安装Mate桌面。
下面是我的系统细节:
```
root@Freebsd-unixmen:~ # uname -a
FreeBSD Freebsd-unixmen 10.1-RELEASE FreeBSD 10.1-RELEASE #0 r274401: Tue Nov 11 21:02:49 UTC 2014 root@releng1.nyi.freebsd.org:/usr/obj/usr/src/sys/GENERIC amd64
root@Freebsd-unixmen:~
```
要在FreeBSD 10.1 中开始安装Mate桌面,按照下面的步骤。
```
pkg install xf86-video-fbdev mate-desktop mate xorg
```
### 在 /etc/rc.conf 中加入下面的行
```
moused_enable="YES"
dbus_enable="YES"
hald_enable="YES"
```
### 测试安装
```
xinit mate-session
```
![](/data/attachment/album/201505/04/220538dby0rtzzfx0yyegt.png)
Mate本身没有显示管理器。因此我们会使用其他的显示管理器如XDM、GDM、slim等等来作为登录管理器。这里让我们看看如何在Mate桌面中配置Slim DM
### 安装 Slim
```
pkg install slim
```
在**/etc/rc.conf**中加入下面的行:
```
slim_enable="YES"
```
在用户的家目录下的.xinitrc文件加入下面的行。
```
exec mate-session
```
重启电脑。现在在你登录Mate时就会进入Slim登录界面了。
![](/data/attachment/album/201505/04/220639iw1woom3jhpgz3dd.png)
![](/data/attachment/album/201505/04/220655e2fg9p3z3iuimzu7.png)
就是这样。干杯!
---
via: <http://www.unixmen.com/install-mate-desktop-freebsd-10-1/>
作者:[M.el Khamlichi](http://www.unixmen.com/author/pirat9/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,408 | 自动化部署基于 Docker 的 Rails 应用 | http://cocoahunter.com/2015/01/23/docker-3/ | 2015-05-08T09:12:00 | [] | https://linux.cn/article-5408-1.html | ![](/data/attachment/album/201505/08/011441atgttbjg9yengpbp.jpeg)
[TL;DR] 这是系列文章的第三篇,讲述了我的公司是如何将基础设施从PaaS移植到Docker上的。
* [第一部分](/article-5339-1.html):谈论了我接触Docker之前的经历;
* [第二部分](/article-5379-1.html):一步步搭建一个安全而又私有的registry。
---
在系列文章的最后一篇里,我们将用一个实例来学习如何自动化整个部署过程。
### 基本的Rails应用程序
现在让我们启动一个基本的Rails应用。为了更好的展示,我使用Ruby 2.2.0和Rails 4.1.1
在终端运行:
```
$ rvm use 2.2.0
$ rails new && cd docker-test
```
创建一个基本的控制器:
```
$ rails g controller welcome index
```
……,然后编辑 `routes.rb` ,以便让该项目的根指向我们新创建的welcome#index方法:
```
root 'welcome#index'
```
在终端运行 `rails s` ,然后打开浏览器,登录[http://localhost:3000](http://localhost:3000/),你会进入到索引界面当中。我们不准备给应用加上多么神奇的东西,这只是一个基础的实例,当我们将要创建并部署容器的时候,用它来验证一切是否运行正常。
### 安装webserver
我们打算使用Unicorn当做我们的webserver。在Gemfile中添加 `gem 'unicorn'`和 `gem 'foreman'`然后将它bundle起来(运行 `bundle install`命令)。
启动Rails应用时,需要先配置好Unicorn,所以我们将一个**unicorn.rb**文件放在**config**目录下。[这里有一个Unicorn配置文件的例子](https://gist.github.com/chasseurmic/0dad4d692ff499761b20),你可以直接复制粘贴Gist的内容。
接下来,在项目的根目录下添加一个Procfile,以便可以使用foreman启动应用,内容为下:
```
web: bundle exec unicorn -p $PORT -c ./config/unicorn.rb
```
现在运行**foreman start**命令启动应用,一切都将正常运行,并且你将能够在[http://localhost:5000](http://localhost:5000/)上看到一个正在运行的应用。
### 构建一个Docker镜像
现在我们构建一个镜像来运行我们的应用。在这个Rails项目的根目录下,创建一个名为**Dockerfile**的文件,然后粘贴进以下内容:
```
# 基于镜像 ruby 2.2.0
FROM ruby:2.2.0
# 安装所需的库和依赖
RUN apt-get update && apt-get install -qy nodejs postgresql-client sqlite3 --no-install-recommends && rm -rf /var/lib/apt/lists/*
# 设置 Rails 版本
ENV RAILS_VERSION 4.1.1
# 安装 Rails
RUN gem install rails --version "$RAILS_VERSION"
# 创建代码所运行的目录
RUN mkdir -p /usr/src/app
WORKDIR /usr/src/app
# 使 webserver 可以在容器外面访问
EXPOSE 3000
# 设置环境变量
ENV PORT=3000
# 启动 web 应用
CMD ["foreman","start"]
# 安装所需的 gems
ADD Gemfile /usr/src/app/Gemfile
ADD Gemfile.lock /usr/src/app/Gemfile.lock
RUN bundle install --without development test
# 将 rails 项目(和 Dockerfile 同一个目录)添加到项目目录
ADD ./ /usr/src/app
# 运行 rake 任务
RUN RAILS_ENV=production rake db:create db:migrate
```
使用上述Dockerfile,执行下列命令创建一个镜像(确保**boot2docker**已经启动并在运行当中):
```
$ docker build -t localhost:5000/your_username/docker-test .
```
然后,如果一切正常,长长的日志输出的最后一行应该类似于:
```
Successfully built 82e48769506c
$ docker images
REPOSITORY TAG IMAGE ID CREATED VIRTUAL SIZE
localhost:5000/your_username/docker-test latest 82e48769506c About a minute ago 884.2 MB
```
让我们运行一下容器试试!
```
$ docker run -d -p 3000:3000 --name docker-test localhost:5000/your_username/docker-test
```
通过你的boot2docker虚拟机的3000号端口(我的是[http://192.168.59.103:3000](http://192.168.59.103:3000/)),你可以观察你的Rails应用。(如果不清楚你的boot2docker虚拟地址,输入`$ boot2docker ip`命令查看。)
### 使用shell脚本进行自动化部署
前面的文章(指文章1和文章2)已经告诉了你如何将新创建的镜像推送到私有registry中,并将其部署在服务器上,所以我们跳过这一部分直接开始自动化进程。
我们将要定义3个shell脚本,然后最后使用rake将它们捆绑在一起。
### 清除
每当我们创建镜像的时候,
* 停止并重启boot2docker;
* 去除Docker孤儿镜像(那些没有标签,并且不再被容器所使用的镜像们)。
在你的工程根目录下的**clean.sh**文件中输入下列命令。
```
echo Restarting boot2docker...
boot2docker down
boot2docker up
echo Exporting Docker variables...
sleep 1
export DOCKER_HOST=tcp://192.168.59.103:2376
export DOCKER_CERT_PATH=/Users/user/.boot2docker/certs/boot2docker-vm
export DOCKER_TLS_VERIFY=1
sleep 1
echo Removing orphaned images without tags...
docker images | grep "<none>" | awk '{print $3}' | xargs docker rmi
```
给脚本加上执行权限:
```
$ chmod +x clean.sh
```
### 构建
构建的过程基本上和之前我们所做的(docker build)内容相似。在工程的根目录下创建一个**build.sh**脚本,填写如下内容:
```
docker build -t localhost:5000/your_username/docker-test .
```
记得给脚本执行权限。
### 部署
最后,创建一个**deploy.sh**脚本,在里面填进如下内容:
```
# 打开 boot2docker 到私有注册库的 SSH 连接
boot2docker ssh "ssh -o 'StrictHostKeyChecking no' -i /Users/username/.ssh/id_boot2docker -N -L 5000:localhost:5000 root@your-registry.com &" &
# 在推送前先确认该 SSH 通道是开放的。
echo Waiting 5 seconds before pushing image.
echo 5...
sleep 1
echo 4...
sleep 1
echo 3...
sleep 1
echo 2...
sleep 1
echo 1...
sleep 1
# Push image onto remote registry / repo
echo Starting push!
docker push localhost:5000/username/docker-test
```
如果你不理解这其中的含义,请先仔细阅读这部分[第二部分](/article-5379-1.html)。
给脚本加上执行权限。
### 使用rake将以上所有绑定
现在的情况是,每次你想要部署你的应用时,你都需要单独运行这三个脚本。
1. clean
2. build
3. deploy / push
这一点都不费工夫,可是事实上开发者比你想象的要懒得多!那么咱们就索性再懒一点!
我们最后再把工作好好整理一番,我们现在要将三个脚本通过rake捆绑在一起。
为了更简单一点,你可以在工程根目录下已经存在的Rakefile中添加几行代码,打开Rakefile文件,把下列内容粘贴进去。
```
namespace :docker do
desc "Remove docker container"
task :clean do
sh './clean.sh'
end
desc "Build Docker image"
task :build => [:clean] do
sh './build.sh'
end
desc "Deploy Docker image"
task :deploy => [:build] do
sh './deploy.sh'
end
end
```
即使你不清楚rake的语法(其实你真应该去了解一下,这玩意太酷了!),上面的内容也是很显然的吧。我们在一个命名空间(docker)里声明了三个任务。
三个任务是:
* rake docker:clean
* rake docker:build
* rake docker:deploy
Deploy独立于build,build独立于clean。所以每次我们输入命令运行的时候。
```
$ rake docker:deploy
```
所有的脚本都会按照顺序执行。
### 测试
现在我们来看看是否一切正常,你只需要在app的代码里做一个小改动:
```
$ rake docker:deploy
```
接下来就是见证奇迹的时刻了。一旦镜像文件被上传(第一次可能花费较长的时间),你就可以ssh登录产品服务器,并且(通过SSH管道)把docker镜像拉取到服务器并运行了。多么简单!
也许你需要一段时间来习惯,但是一旦成功,它几乎与用Heroku部署一样简单。
备注:像往常一样,请让我了解到你的意见。我不敢保证这种方法是最好,最快,或者最安全的Docker开发的方法,但是这东西对我们确实奏效。
---
via: <http://cocoahunter.com/2015/01/23/docker-3/>
作者:[Michelangelo Chasseur](http://cocoahunter.com/author/michelangelo/) 译者:[DongShuaike](https://github.com/DongShuaike) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 302 | Found | null |
5,409 | 如何修复 apt-get update 无法添加新的 CD-ROM 的错误 | http://itsfoss.com/fix-failed-fetch-cdrom-aptget-update-add-cdroms/ | 2015-05-08T10:29:34 | [
"apt-get"
] | https://linux.cn/article-5409-1.html | ![](/data/attachment/album/201505/08/102935lutcjkyukbzjb0cl.jpg)
这些天我正在体验Elementary OS Freya,在这期间,我遇到了一个非常常见的更新错误:**Failed to fetch cdrom Please use apt-cdrom to make this CD-ROM recognized by APT. apt-get update cannot be used to add new CD-ROMs**。完整的错误在运行apt-get update后看上去像这样:
>
> W: Failed to fetch cdrom://elementary OS 0.3 *Freya* – Daily amd64 (20150208)/dists/trusty/main/binary-amd64/Packages Please use apt-cdrom to make this CD-ROM recognized by APT. apt-get update cannot be used to add new CD-ROMs
>
>
> W: Failed to fetch cdrom://elementary OS 0.3 *Freya* – Daily amd64 (20150208)/dists/trusty/restricted/binary-amd64/Packages Please use apt-cdrom to make this CD-ROM recognized by APT. apt-get update cannot be used to add new CD-ROMs
>
>
> E: Some index files failed to download. They have been ignored, or old ones used instead.
>
>
>
本篇中,我们会了解如何修复这个错误。
### 修复apt-get update无法添加新的CD-ROM的错误
这个错误的原因是cdrom已经被包含在源之中。要修复这个问题,我们需要将它从软件源中移除。
在Ubuntu中,找到“软件与更新”:
![](/data/attachment/album/201505/08/102935i955dp0ujgtuuu6u.jpg)
在Ubuntu Software的第一个标签中,找到cdrom,如果它是勾选的,那么取消勾选。
![](/data/attachment/album/201505/08/102936kg7s7ktfa7aflkde.jpg)
关闭软件源并再次运行更新。现在应该可以用了。
### 进一步故障排除:
上面描述的方法已经修复了这个**apt-get update cannot be used to add new CD-ROMs**错误。但是这个方法对我无效,因为cdrom的选项这时是灰色的,因为我使用的live版本。
![](/data/attachment/album/201505/08/102936jewm54skws4am4os.png)
现在要修复我们的问题了,我们是要采用命令行路线。打开终端并查看软件源中包含了哪些源:
```
cat /etc/apt/sources.list
```
我的输出是下面这样:
```
deb cdrom:[elementary OS 0.3 _Freya_ – Daily amd64 (20150208)]/ trusty main restricted
deb http://archive.ubuntu.com/ubuntu/ trusty main restricted universe multiverse
deb-src http://archive.ubuntu.com/ubuntu/ trusty main restricted universe multiverse
deb http://security.ubuntu.com/ubuntu/ trusty-security main restricted universe multiverse
deb-src http://security.ubuntu.com/ubuntu/ trusty-security main restricted universe multiverse
deb http://archive.ubuntu.com/ubuntu/ trusty-updates main restricted universe multiverse
deb-src http://archive.ubuntu.com/ubuntu/ trusty-updates main restricted universe multiverse
```
在上面的第一行中。它包含了cdrom。我们需要用‘#’来注释掉这行:
```
#deb cdrom:[elementary OS 0.3 _Freya_ – Daily amd64 (20150208)]/ trusty main restricted
```
要用下面的命令来:
```
sudo gedit /etc/apt/sources.list
```
在你编辑完软件源后,再次运行apt-get update。“apt-get update cannot be used to add new CD-ROMs”这个错误应该已经修复了。如果你还遇到其他的问题,看一下这篇收集了大部分[Ubuntu常见更新错误修复](http://itsfoss.com/fix-update-errors-ubuntu-1404/)的文章。
我希望这篇教程对你有用。如果你还有其他的问题和建议,请在下面留言。
---
via: <http://itsfoss.com/fix-failed-fetch-cdrom-aptget-update-add-cdroms/>
作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,410 | 在 RedHat/CentOS 7.x 中使用 nmcli 命令管理网络 | http://linoxide.com/linux-command/nmcli-tool-red-hat-centos-7/ | 2015-05-08T10:46:37 | [
"NetworkManager",
"nmcli"
] | /article-5410-1.html | [**Red Hat Enterprise Linux 7**](https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/7/html/7.0_Release_Notes/) 与 **CentOS 7** 中默认的网络服务由 **NetworkManager** 提供,这是动态控制及配置网络的守护进程,它用于保持当前网络设备及连接处于工作状态,同时也支持传统的 ifcfg 类型的配置文件。
NetworkManager 可以用于以下类型的连接:Ethernet,VLANS,Bridges,Bonds,Teams,Wi-Fi,mobile boradband(如移动3G)以及 IP-over-InfiniBand。针对与这些网络类型,NetworkManager 可以配置他们的网络别名,IP 地址,静态路由,DNS,VPN连接以及很多其它的特殊参数。
可以用命令行工具 nmcli 来控制 NetworkManager。
![](/data/attachment/album/201505/08/104619yi1ioj1xrokaxkrx.png)
### nmcli 用法
```
# nmcli [ OPTIONS ] OBJECT { COMMAND | help }
```
我们可以通过 TAB 键补全命令,当你忘记这个命令的语法时只需要按下 TAB 就可以看到选项列表。
![nmcli tab](/data/attachment/album/201505/08/104640bg3glmtt38uly36t.jpg)
使用 nmcli 的一些例子:
```
# nmcli general status
```
这条命令将 NetworkManager 的所有状态都打印出来。
```
# nmcli connection show
```
显示所有连接。
```
# nmcli connection show -a
```
仅显示当前活动的连接。
```
# nmcli device status
```
列出 NetworkManager 识别出的设备列表及他们的状态。
![nmcli general](/data/attachment/album/201505/08/104641ii7hckji22211144.jpg)
### 启动/停止 网络接口
使用 nmcli 工具启动或停止网络接口,与 ifconfig 的 up/down 是一样的。
使用下列命令停止某个接口:
```
# nmcli device disconnect eno16777736
```
下列命令用来启动接口:
```
# nmcli device connect eno16777736
```
### 添加静态IP的以太网连接
以下命令可以添加一个静态IP地址的以太网连接:
```
# nmcli connection add type ethernet con-name NAME_OF_CONNECTION ifname interface-name ip4 IP_ADDRESS gw4 GW_ADDRESS
```
根据你需要的配置更改 NAME\_OF\_CONNECTION,IP\_ADDRESS, GW\_ADDRESS 参数(如果不需要网关的话可以省略最后一部分)。
```
# nmcli connection add type ethernet con-name NEW ifname eno16777736 ip4 192.168.1.141 gw4 192.168.1.1
```
使用下列命令设置DNS服务器:
```
# nmcli connection modify NEW ipv4.dns "8.8.8.8 8.8.4.4"
```
下列命令启动新的 Ethernet 连接:
```
# nmcli connection up NEW ifname eno16777736
```
查看新连接的配置信息:
```
# nmcli -p connection show NEW
```
![nmcli add static](/data/attachment/album/201505/08/104642xrzr5r49j5o6vv5e.jpg)
### 增加一个使用 DHCP 的新连接
增加新的连接,使用DHCP自动分配IP地址,网关,DNS等,你要做的就是将命令行后 ip/gw 地址部分去掉就行了,DHCP会自动分配这些参数。
例,在 eno 16777736 设备上配置一个 名为 NEW\_DHCP 的 DHCP 连接
```
# nmcli connection add type ethernet con-name NEW_DHCP ifname eno16777736
```
---
via: <http://linoxide.com/linux-command/nmcli-tool-red-hat-centos-7/>
作者:[Adrian Dinu](http://linoxide.com/author/adriand/) 译者:[SPccman](https://github.com/SPccman) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-command/nmcli-tool-red-hat-centos-7/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c55a0>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,417 | Linux有问必答:如何在Linux下禁用IPv6 | http://ask.xmodulo.com/disable-ipv6-linux.html | 2015-05-09T20:40:14 | [
"IPv6"
] | /article-5417-1.html |
>
> **问题**:我发现我的一个应用程序在尝试通过IPv6建立连接,但是由于我们本地网络不允许分配IPv6的流量,IPv6连接会超时,应用程序的连接会回退到IPv4,这样就会造成不必要的延迟。由于我目前对IPv6没有任何需求,所以我想在我的Linux主机上禁用IPv6。有什么比较合适的方法呢?
>
>
>
IPv6被认为是IPv4——互联网上的传统32位地址空间——的替代产品,它用来解决现有IPv4地址空间即将耗尽的问题。然而,由于已经有大量主机、设备用IPv4连接到了互联网上,所以想在一夜之间将它们全部切换到IPv6几乎是不可能的。许多IPv4到IPv6的转换机制(例如:双协议栈、网络隧道、代理) 已经被提出来用来促进IPv6能被采用,并且很多应用也正在进行重写,如我们所提倡的,来增加对IPv6的支持。有一件事情可以确定,就是在可预见的未来里IPv4和IPv6势必将共存。
![](/data/attachment/album/201505/09/203853n903vr6v6revnrun.png)
理想情况下,[向IPv6过渡的进程](http://www.google.com/intl/en/ipv6/statistics.html)不应该被最终的用户所看见,但是IPv4/IPv6混合环境有时会让你碰到各种源于IPv4和IPv6之间不经意间的相互碰撞的问题。举个例子,你会碰到应用程序超时的问题,比如apt-get或ssh尝试通过IPv6连接失败、DNS服务器意外清空了IPv6的AAAA记录、或者你支持IPv6的设备不兼容你的互联网服务提供商遗留下的IPv4网络,等等等等。
当然这不意味着你应该盲目地在你的Linux机器上禁用IPv6。鉴于IPv6许诺的种种好处,作为社会的一份子我们最终还是要充分拥抱它的,但是作为给最终用户进行故障排除过程的一部分,如果IPv6确实是罪魁祸首,那你可以尝试去关闭它。
这里有一些让你在Linux中部分(例如:对于某个特定的网络接口)或全部禁用IPv6的小技巧。这些小贴士应该适用于所有主流的Linux发行版包括Ubuntu、Debian、Linux Mint、CentOS、Fedora、RHEL以及Arch Linux。
### 查看IPv6在Linux中是否被启用
所有现代Linux发行版默认都自动启用IPv6。为了能看到IPv6在你的Linux中是否被激活,可以使用ifconfig或ip命令。如果你在输入这些命令之后看到"inet6"字样的输出,那就意味着你的Linux系统启用了IPv6。
```
$ ifconfig
```
![](/data/attachment/album/201505/09/204020oumokf9ngjmyxxym.jpg)
```
$ ip addr
```
![](/data/attachment/album/201505/09/204028vpehk73c2keivhb8.jpg)
### 临时禁用IPv6
如果你想要在你的Linux系统上临时关闭IPv6,你可以用 /proc 文件系统。"临时"的意思是我们所做的禁用IPv6的更改在系统重启后将不被保存。IPv6会在你的Linux机器重启后再次被启用。
要将一个特定的网络接口禁用IPv6,使用以下命令:
```
$ sudo sh -c 'echo 1 > /proc/sys/net/ipv6/conf/<interface-name>/disable_ipv6'
```
举个例子,将eth0接口禁用IPv6:
```
$ sudo sh -c 'echo 1 > /proc/sys/net/ipv6/conf/eth0/disable_ipv6'
```
![](/data/attachment/album/201505/09/204039epupn33kgp6g1wkz.jpg)
重新启用eth0接口的IPv6:
```
$ sudo sh -c 'echo 0 > /proc/sys/net/ipv6/conf/eth0/disable_ipv6'
```
如果你想要将整个系统所有接口包括回环接口禁用IPv6,使用以下命令:
```
$ sudo sh -c 'echo 1 > /proc/sys/net/ipv6/conf/all/disable_ipv6'
```
### 永久禁用IPv6
以上方法是不能永久禁用IPv6的,你一旦重启系统IPv6还是会被启用。如果你想要永久关闭它,有几个方法你可以试试。
#### 方法一
第一种方法是通过 /etc/sysctl.conf 文件对 /proc 进行永久修改。
换句话说,就是用文本编辑器打开 /etc/sysctl.conf 然后添加以下内容:
```
# 禁用整个系统所有接口的IPv6
net.ipv6.conf.all.disable_ipv6 = 1
# 禁用某一个指定接口的IPv6(例如:eth0, lo)
net.ipv6.conf.lo.disable_ipv6 = 1
net.ipv6.conf.eth0.disable_ipv6 = 1
```
在 /etc/sysctl.conf 使这些更改生效,运行以下命令:
```
$ sudo sysctl -p /etc/sysctl.conf
```
或者直接重启。
#### 方法二
另一个永久禁用IPv6的方法是在开机的时候传递一个必要的内核参数。
用文本编辑器打开 /etc/default/grub 并给GRUB*CMDLINE*LINUX变量添加"ipv6.disable=1"。
```
$ sudo vi /etc/default/grub
```
---
```
GRUB_CMDLINE_LINUX="xxxxx ipv6.disable=1"
```
上面的"xxxxx"代表任何已有的内核参数,在它后面添加"ipv6.disable=1"。
![](/data/attachment/album/201505/09/204054p8jzpjlbfdr1eab8.jpg)
最后,不要忘记用以下方法保存对GRUB/GRUB2的修改:
Debian、Ubuntu或Linux Mint系统:
```
$ sudo update-grub
```
Fedora、CentOS/RHEL系统:
```
$ sudo grub2-mkconfig -o /boot/grub2/grub.cfg
```
现在只要你重启你的Linux系统,IPv6就会完全被禁用。
### 禁用IPv6之后的其它可选步骤
这里有一些在你禁用IPv6后需要考虑的可选步骤,这是因为当你在内核里禁用IPv6后,其它程序也许仍然会尝试使用IPv6。在大多数情况下,应用程序的这种行为不太会影响到什么,但是出于效率或安全方面的原因,你可以为他们禁用IPv6。
#### /etc/hosts
根据你的设置, /etc/hosts 会包含一条或多条IPv6的hosts和它们的地址。用文本编辑器打开 /etc/hosts 并注释掉包含IPv6 hosts的脚本行。
```
$ sudo vi /etc/hosts
```
---
```
# comment these IPv6 hosts
# ::1 ip6-localhost ip6-loopback
# fe00::0 ip6-localnet
# ff00::0 ip6-mcastprefix
# ff02::1 ip6-allnodes
# ff02::2 ip6-allrouters
```
#### Network Manager
如果你在用NetworkManager来管理你的网络设置,你可以在NetworkManager里禁用IPv6。在NetworkManager打开wired connection,点击"IPv6 Settings"选项并在"Method"一栏选择"Ignore",保存退出。
![](/data/attachment/album/201505/09/204055g1izpc3ix2u2u2cp.png)
#### SSH服务
默认情况下,OpenSSH服务(sshd)会去尝试捆绑IPv4和IPv6的地址。
要强制sshd只捆绑IPv4地址,用文本编辑器打开 /etc/ssh/sshd\_config 并添加以下行。inet只适用于IPv4,而inet6是适用于IPv6的。
```
$ sudo vi /etc/ssh/sshd_config
```
---
```
AddressFamily inet
```
然后重启sshd服务。
---
via: <http://ask.xmodulo.com/disable-ipv6-linux.html>
作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[ZTinoZ](https://github.com/ZTinoZ) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /disable-ipv6-linux.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c44c0>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)")) | null |
5,418 | 25个 Git 进阶技巧 | https://www.andyjeffries.co.uk/25-tips-for-intermediate-git-users/ | 2015-05-11T07:53:00 | [
"git"
] | https://linux.cn/article-5418-1.html | 我已经使用git差不多18个月了,觉得自己对它应该已经非常了解。然后来自GitHub的[Scott Chacon](http://gitcasts.com/about)过来给LVS做培训([LVS是一个赌博软件供应商和开发商](http://www.lvs.co.uk/),从2013年开始的合同),而我在第一天里就学到了很多。
作为一个对git感觉良好的人,我觉得分享从社区里掌握的一些有价值的信息,也许能帮某人解决问题而不用做太深入研究。
![](/data/attachment/album/201505/09/220247v3k9499t5ov03kvv.jpg)
### 基本技巧
#### 1. 安装后的第一步
在安装好git后,你第一件该做的事是设置你的名字和电子邮箱,因为每次提交都要用到这些信息:
```
$ git config --global user.name "Some One"
$ git config --global user.email "someone@gmail.com"
```
#### 2. Git是基于指针的
保存在git里的一切都是文件。当你创建一个提交的时候,会建立一个包含你的提交信息和相关数据(名字,邮件地址,日期/时间,前一个提交,等等)的文件,并把它链接到一个树文件中。这个树文件中包含了对象或其他树的列表。这里的提到的对象(或二进制大对象)是和本次提交相关的实际内容(它也是一个文件,另外,尽管文件名并没有包含在对象里,但是存储在树中)。所有这些文件都使用对象的SHA-1哈希值作为文件名。
用这种方式,分支和标签就是简单的文件(基本上是这样),包含指向该提交的SHA-1哈希值。使用这些索引会带来优秀的灵活性和速度,比如创建一个新分支就是简单地用分支名字和所分出的那个提交的SHA-1索引来创建一个文件。当然,你不需要自己做这些,而只要使用Git命令行工具(或者GUI),但是实际上就是这么简单。
你也许听说过叫HEAD的索引。这只是简单的一个文件,包含了你当前指向的那个提交的SHA-1索引值。如果你正在解决一次合并冲突然后看到了HEAD,这并不是一个特别的分支或分支上的一个必需的特殊位置,只是标明你当前所在位置。
所有的分支指针都保存在.git/refs/heads里,HEAD在.git/HEAD里,而标签保存在.git/refs/tags里 - 自己可以随便进去看看。
#### 3. 两个爸爸(父节点) - 你没看错!
在历史中查看一个合并提交的信息时,你将看到有两个父节点(不同于工作副本上的常规提交的情况)。第一个父节点是你所在的分支,第二个是你合并过来的分支。
#### 4. 合并冲突
目前我相信你碰到过合并冲突并且解决过。通常是编辑一下文件,去掉<<<<,====,>>>>标志,保留需要留下的代码。有时能够看到这两个修改之前的代码会很不错,比如,在这两个现在冲突的分支之前的改动。下面是一种方式:
```
$ git diff --merge
diff --cc dummy.rb
index 5175dde,0c65895..4a00477
--- a/dummy.rb
+++ b/dummy.rb
@@@ -1,5 -1,5 +1,5 @@@
class MyFoo
def say
- puts "Bonjour"
- puts "Hello world"
++ puts "Annyong Haseyo"
end
end
```
如果是二进制文件,比较差异就没那么简单了...通常你要做的就是测试这个二进制文件的两个版本来决定保留哪个(或者在二进制文件编辑器里手工复制冲突部分)。从一个特定分支获取文件拷贝(比如说你在合并master和feature123两个分支):
```
$ git checkout master flash/foo.fla # 或者...
$ git checkout feature132 flash/foo.fla
$ # 然后...
$ git add flash/foo.fla
```
另一种方式是通过git输出文件 - 你可以输出到另外的文件名,然后当你决定了要用哪个后,再将选定的正确文件复制为正常的文件名:
```
$ git show master:flash/foo.fla > master-foo.fla
$ git show feature132:flash/foo.fla > feature132-foo.fla
$ # 检出master-foo.fla和feature132-foo.fla
$ # 假如说我们决定来自feature132的文件是正确的
$ rm flash/foo.fla
$ mv feature132-foo.fla flash/foo.fla
$ rm master-foo.fla
$ git add flash/foo.fla
```
更新:感谢Carl在原博客文章上评论里的提醒,你实际上可以用“git checkout —ours flash/foo.fla”和“git checkout —theirs flash/foo.fla”来检出特定版本的文件,而不用记住你在合并的分支名字。就我个人来说喜欢更精确一点,但这也是一种方式...
记着在解决完冲突后要将文件加入提交(像我上面做的那样)。
### 服务器,分支和标签
#### 5. 远端服务器
git的一个超强大的功能就是可以有不止一个远端服务器(实际上你一直都在一个本地仓库上工作)。你并不是一定都要有这些服务器的写权限,你可以有多个可以读取的服务器(用来合并他们的工作)然后写入到另外一个仓库。添加一个新的远端服务器很简单:
```
$ git remote add john git@github.com:johnsomeone/someproject.git
```
如果你想查看远端服务器的信息可以这样做:
```
# 显示每个远端服务器的URL
$ git remote -v
# 提供更多详细信息
$ git remote show name
```
你随时都可以查看本地分支和远端分支的差异:
```
$ git diff master..john/master
```
你也可以查看没有在远端分支上的HEAD的改动:
```
$ git log remote/branch..
# 注意:..后面没有结束的特定引用
```
#### 6. 标签
在git里有两种类型的标签 - 轻量级标签和带注释标签。记住技巧2里说过git是基于指针的,这两者之间的差异也很简单。轻量级标签只是一个简单的指向一次提交的带名字指针。你随时都可以将它指向另一个提交。带注释标签是一个指向标签对象的带名字指针,带有自己的信息和历史。因为有自己的信息,它可以根据需要用GPG签名。
建立这两种类型的标签都很简单(只有一个命令行开关的差异)
```
$ git tag to-be-tested
$ git tag -a v1.1.0 # 会提示输入标签的信息
```
#### 7. 建立分支
在git里建立分支非常简单(而且像闪电一样快,因为它只需要创建一个小于100字节的文件)。用普通方式建立新分支并切换过去:
```
$ git branch feature132
$ git checkout feature132
```
当然,如果你确定自己直接切换到新建的分支,可以用一个命令实现:
```
$ git checkout -b feature132
```
如果你想重命名一个本地分支也很简单(可以显示发生了什么的较长的方式):
```
$ git checkout -b twitter-experiment feature132
$ git branch -d feature132
```
更新:你也可以(像Brian Palmer在原博客文章的评论里提出的)只用“git branch”的-m开关在一个命令里实现(像Mike提出的,如果你只指定了一个分支参数,就会重命名当前分支):
```
$ git branch -m twitter-experiment
$ git branch -m feature132 twitter-experiment
```
#### 8. 合并分支
也许在将来的某个时候,你希望将改动合并。有两种方式:
```
$ git checkout master
$ git merge feature83 # 或者...
$ git rebase feature83
```
merge和rebase之间的差别是merge会尝试处理改动并建立一个新的混合了两者的提交。rebase会尝试把你从一个分支最后一次分离后的所有改动,一个个加到该分支的HEAD上。不过,在已经将分支推到远端服务器后不要再rebase了 - 这会引起冲突/问题。
如果你不确定在哪些分支上还有独有的工作 - 所以你也不知道哪些分支需要合并而哪些可以删除,git branch有两个开关可以帮你:
```
# 显示已经全部合并到当前分支的分支
$ git branch --merged
# 显示没有合并到当前分支的分支
$ git branch --no-merged
```
#### 9. 远端分支
如果你在本地有一个分支希望推到远端服务器上,你可以用一行命令推送上去:
```
$ git push origin twitter-experiment:refs/heads/twitter-experiment
# origin是我们服务器的名字,而twitter-experiment是分支名字
```
更新:感谢Erlend在原博客文章上的评论 - 这个实际上和`git push origin twitter-experiment`效果一样,不过使用完整的语法,你可以在两者之间使用不同的分支名(这样本地分支可以是`add-ssl-support`而远端是`issue-1723`)。
如果你想在远端服务器上删除一个分支(注意分支名前面的冒号):
```
$ git push origin :twitter-experiment
```
如果你想查看所有远端分支的状态可以这样做:
```
$ git remote show origin
```
这个命令可能会列出服务器上一些以前有过但现在已经不在了的分支。如果碰到这种情况你可以用下面的命令从你本地分支里清理掉:
```
$ git remote prune
```
最后,如果你想在本地跟踪一个远端分支,普通的方式是:
```
$ git branch --track myfeature origin/myfeature
$ git checkout myfeature
```
不过,新版的git在使用-b标记检出分支时会自动设定跟踪:
```
$ git checkout -b myfeature origin/myfeature
```
### 在储藏点,索引和文件系统中保存内容
#### 10. 储藏
在git里你可以把当前工作状态放进一个储藏堆栈中,然后可以再取出来。最简单的情形是下面这样:
```
$ git stash
# 做点其他事情...
$ git stash pop
```
许多人建议使用`git stash apply`来代替pop,不过如果这样做的话最后会遗留一个很长的储藏列表。而“pop”会在全部加载后自动从堆栈中移除。如果使用过`git stash apply`,你也可以使用下面的命令从堆栈上移除最后一项:
```
$ git stash drop
```
git会基于当前的提交信息自动创建评论。如果你更希望有自定义信息的话(因为它可能和前一个提交没有任何联系):
```
$ git stash save "My stash message"
```
如果你希望从列表中取出一个特定的储藏点(不一定非得是最后一个)可以先列出它们然后用下面的方式取出:
```
$ git stash list
stash@{0}: On master: Changed to German
stash@{1}: On master: Language is now Italian
$ git stash apply stash@{1}
```
#### 11. 交互式添加
在subversion的世界里你只能修改文件然后提交所有改动。而在git里你有强大得多的方式来提交部分文件或者甚至是部分补丁。提交部分文件或文件中的部分改动你需要进入交互式模式:
```
$ git add -i
staged unstaged path
*** Commands ***
1: status 2: update 3: revert 4: add untracked
5: patch 6: diff 7: quit 8: help
What now>
```
这会让你进入一个基于菜单的交互式提示。你可以使用命令中的数字或高亮的字母(如果你在终端里打开了高亮的话)来进入相应的模式。然后就只是输入你希望操作的文件的数字了(你可以使用这样的格式,1或者1-4或2,4,7)。
如果你想进入补丁模式(交互式模式下按‘p’或‘5’),你也可以直接进入:
```
$ git add -p
diff --git a/dummy.rb b/dummy.rb
index 4a00477..f856fb0 100644
--- a/dummy.rb
+++ b/dummy.rb
@@ -1,5 +1,5 @@
class MyFoo
def say
- puts "Annyong Haseyo"
+ puts "Guten Tag"
end
end
Stage this hunk [y,n,q,a,d,/,e,?]?
```
你可以看到下方会有一些选项供选择用来添加该文件的这个改动、该文件的所有改动,等等。使用‘?’命令可以详细解释这些选项。
#### 12. 从文件系统里保存/取回改动
有些项目(比如Git项目本身)在git文件系统中直接保存额外文件而并没有将它们加入到版本控制中。
让我们从在git中存储一个随机文件开始:
```
$ echo "Foo" | git hash-object -w --stdin
51fc03a9bb365fae74fd2bf66517b30bf48020cb
```
这样这个目标文件就已经保存到数据库中了,但是如果你没有设定一个指向它的指针的话它会被当做垃圾回收。最简单的方式是设定一个标签:
```
$ git tag myfile 51fc03a9bb365fae74fd2bf66517b30bf48020cb
```
注意这里我们使用了标签myfile。当我们需要使用这个文件的时候可以这样做:
```
$ git cat-file blob myfile
```
这个对于一些工具文件很有用,开发者可能会用到(密码,GPG密钥,等等)但是又不希望每次都检出到硬盘(尤其是在实际工作中)。
### 日志以及有哪些改动?
#### 13. 查看日志
长时间使用 Git 的话,不会没用过‘git log’来查看最近的提交。不过,有一些技巧来更好地应用。比如,你可以使用下面的命令来查看每次提交的具体改动:
```
$ git log -p
```
或者你可以仅仅查看有哪些文件改动:
```
$ git log --stat
```
有个很不错的别名你可以试试,会显示简短提交名和一个不错的分支图并在一行里显示提交信息(有点像gitk,但是是在命令行下):
```
$ git config --global alias.lol "log --pretty=oneline --abbrev-commit --graph --decorate"
$ git lol
* 4d2409a (master) Oops, meant that to be in Korean
* 169b845 Hello world
```
#### 14. 搜索日志
如果你想找特定提交者可以这样做:
```
$ git log --author=Andy
```
更新:感谢Johannes的评论,我已经去掉了之前这里的一些有混淆的地方。
或者你想在提交信息里找一些相关字段:
```
$ git log --grep="Something in the message"
```
也有一个更强大的叫做pickaxe的命令用来查找包含了删除或添加的某个特定内容的提交(比如,该内容第一次出现或被删除)。这可以告诉你什么时候增加了一行(但这一行里的某个字符后面被改动过就不行了):
```
$ git log -S "TODO: Check for admin status"
```
假如你改动了一个特定的文件,比如`lib/foo.rb`
```
$ git log lib/foo.rb
```
比如说你有一个`feature/132`分支和`feature/145`分支,然后你想看看这两个分支上不在master分支里的提交(注意<sup> 符号是不在的意思):</sup>
```
$ git log feature/132 feature/145 ^master
```
你也可以使用ActiveSupport格式的日期来缩小到某个日期范围:
```
$ git log --since=2.months.ago --until=1.day.ago
```
默认情况下会用OR来组合查询,但你可以轻易地改为AND(如果你有超过一条的查询标准)
```
$ git log --since=2.months.ago --until=1.day.ago --author=andy -S "something" --all-match
```
#### 15. 查看/修改版本
有很多方式可以用来引用一个版本,看你记得哪个:
```
$ git show 12a86bc38 # 根据版本
$ git show v1.0.1 # 根据标签
$ git show feature132 # 根据分支名
$ git show 12a86bc38^ # 一次提交的父节点
$ git show 12a86bc38~2 # 一次提交的祖父节点
$ git show feature132@{yesterday} # 时间相关
$ git show feature132@{2.hours.ago} # 时间相关
```
注意和之前部分有些不同,末尾的<sup> 的意思是该提交的父节点</sup> - 开始位置的<sup> 的意思是不在这个分支。</sup>
#### 16. 选择范围
最简单的方式:
```
$ git log origin/master..new
# [old]..[new] - 所有你还没有推送的提交
```
你也可以省略[new],将使用当前的HEAD。
### 时光回溯和后悔药
#### 17. 重置改动
如果你还没有提交的话可以用下面的命令轻松地取消改动:
```
$ git reset HEAD lib/foo.rb
```
通常会使用‘unstage’的别名,因为上面的看上去有些不直观。
```
$ git config --global alias.unstage "reset HEAD"
$ git unstage lib/foo.rb
```
如果你已经提交了该文件,你可以做两件事 - 如果是最后一次提交你还可以改正:
```
$ git commit --amend
```
这会取消最后一次提交,把工作分支回退到提交前标记了所有改动的状态,而且提交信息也都准备好可以修改或直接提交。
如果你已经提交过多次而且希望全部回退,你可以将分支重置到合适的位置。
```
$ git checkout feature132
$ git reset --hard HEAD~2
```
如果你实际上希望将分支指向一个完全不同的SHA1(也许你要将一个分支的HEAD替换到另一个分支,或者之后的某次提交)你可以使用下面的较长的方式:
```
$ git checkout FOO
$ git reset --hard SHA
```
实际上有一个快速的方式(不需要先把你的工作分支切换到FOO再前进到SHA):
```
$ git update-ref refs/heads/FOO SHA
```
#### 18. 提交到了错误的分支
好吧,假如说你已经提交到了master,但却应该创建一个叫experimental的主题分支更合适。要移动这些改动,你可以在当前位置创建分支,回退HEAD再检出新分支:
```
$ git branch experimental # 创建一个指向当前master的位置的指针
$ git reset --hard master~3 # 移动master分支的指针到3个版本之前
$ git checkout experimental
```
如果你的改动是在分支的分支的分支上会更复杂。那样你需要做的是将分支基础切换到其他地方:
```
$ git branch newtopic STARTPOINT
$ git rebase oldtopic --onto newtopic
```
#### 19. 交互式切换基础
这是一个我之前看过展示却没真正理解过的很赞的功能,现在觉得它就很简单了。假如说你提交了3次但是你希望更改顺序或编辑(或者合并):
```
$ git rebase -i master~3
```
然后这会启动你的编辑器并带有一些指令。你所要做的就是修改这些指令来选择/插入/编辑(或者删除)提交和保存/退出。然后在编辑完后你可以用`git rebase --continue`命令来让每一条指令生效。
如果你有修改,将会切换到你提交时所处的状态,之后你需要使用命令git commit --amend来编辑。
**注意:在rebase的时候千万不要提交 - 只能先添加然后使用参数--continue,--skip或--abort。**
#### 20. 清理
如果你提交了一些内容到你的分支(也许你从SVN导入了一些旧仓库),然后你希望把某个文件从历史记录中全部删掉:
```
$ git filter-branch --tree-filter 'rm -f *.class' HEAD
```
如果你已经推送到origin了,但之后提交了一些垃圾改动,你也可以在推送前在本地系统里这样做:
```
$ git filter-branch --tree-filter 'rm -f *.class' origin/master..HEAD
```
### 其他技巧
#### 21. 你查看过的前一个引用
如果你知道自己之前查看过一个SHA-1,但是随后做了一些重置/回退的操作,你可以使用reflog命令来列出最近查看过的SHA-1记录:
```
$ git reflog
$ git log -g # 和上面一样,但是使用'log'格式输出
```
#### 22. 分支命名
一个可爱的小技巧 - 别忘了分支名并不限于a-z和0-9。名字中可以用/和.将非常方便用来建立伪命名空间或版本,例如:
```
$ # 生成版本132的改动历史
$ git shortlog release/132 ^release/131
$ # 贴上v1.0.1的标签
$ git tag v1.0.1 release/132
```
#### 23. 找出谁是凶手
通常找出来谁改动了某个文件里的某行代码会很有用。实现这个功能的最简单命令是:
```
$ git blame FILE
```
有时候这些改动来自其他文件(如果你合并了两个文件,或者你移动了某个函数)所以你可以使用下面的命令:
```
$ # 显示内容来自哪个文件
$ git blame -C FILE
```
有时候通过点击各个改动然后回到很早很早以前来跟踪改动会很不错。有一个很好的内建GUI命令来做这个:
```
$ git gui blame FILE
```
#### 24. 数据维护
通常git不需要经常维护,它把自己照顾的很好。不过,你可以通过下面的命令查看数据统计:
```
$ git count-objects -v
```
如果占用很多空间的话,你可以选择在你的本地仓库做垃圾回收。这不会影响推送或其他人,却会让一些命令运行更快而且减少空间占用:
```
$ git gc
```
经常运行完整性检查也很有意义:
```
$ git fsck --full
```
你也可以在末尾加上`--auto`参数(如果你在服务器上通过crontab经常/每天都运行这个命令的话),然后它只会在必要的时候才执行fsck动作。
在检查的时候,看到“dangling”或“unreachable”是正常的,通常这是由回退HEAD或切换基础的结果。而看到“missing”或“sha1 mismatch”就不对了...找专业人士帮忙吧!
#### 25. 恢复遗失的分支
如果你使用-D参数删除了experimental分支,可以用下面的命令重新建立:
```
$ git branch experimental SHA1_OF_HASH
```
如果你最近访问过的话,你通常可以用git reflog来找到SHA1哈希值。
另一种方式是使用`git fsck —lost-found`。其中一个dangling的提交就是丢失的HEAD(它只是已删除分支的HEAD,而HEAD<sup> 被引用为当前的HEAD所以它并不处于dangling状态)</sup>
### 搞定!
哇,这是我写过的最长的一篇博客,我希望有人能觉得有用。如果你这么觉得,或者你有任何疑问请在评论里留言让我知道...
---
via: <https://www.andyjeffries.co.uk/25-tips-for-intermediate-git-users/>
作者:[Andy Jeffries](https://www.andyjeffries.co.uk/author/andy-jeffries/) 译者:[zpl1025](https://github.com/zpl1025) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 404 | Not Found | null |
5,419 | 如何修复 Ubuntu 上“...script returned error exit status 1”的错误 | http://www.unixmen.com/linux-basics-how-to-fix-e-varcacheaptarchives-subprocess-new-pre-removal-script-returned-error-exit-status-1-in-ubuntu/ | 2015-05-10T09:05:00 | [] | https://linux.cn/article-5419-1.html | 今天,我在更新VirtualBox新版本的时候遇到了一个问题。
>
> E: /var/cache/apt/archives/ subprocess new pre-removal script returned error exit status 1
>
>
>
![](/data/attachment/album/201505/09/220717k9khaaa0k1683q2q.png)
### 解决:
我google了一下并找到了方法。下面是我解决的方法。
```
sudo apt-get clean
sudo apt-get update && sudo apt-get upgrade
```
这样几乎可以修复这个问题了。
如果你仍然有问题,那就试试下面的命令:
```
sudo dpkg --configure -a
sudo apt-get -f install
```
或者你可以按照下面的方法从[Oracle VirtualBox](https://www.virtualbox.org/wiki/Downloads)官网下载最新版本并安装。
```
sudo apt-get update
sudo dpkg -i virtualbox-4.3_4.3.24-98716~Ubuntu~raring_amd64.deb
sudo apt-get -f install
sudo apt-get autoclean && sudo apt-get autoremove
```
干杯!
---
via: <http://www.unixmen.com/linux-basics-how-to-fix-e-varcacheaptarchives-subprocess-new-pre-removal-script-returned-error-exit-status-1-in-ubuntu/>
作者:[SK](https://www.unixmen.com/author/sk/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,420 | 使用 Prey 定位被盗的 Ubuntu 笔记本与智能电话 | http://linoxide.com/ubuntu-how-to/anti-theft-application-prey-ubuntu/ | 2015-05-10T10:15:00 | [
"Prey"
] | /article-5420-1.html | Prey是一款跨平台的开源工具,可以帮助你找回被盗的笔记本,台式机,平板和智能手机。它已经获得了广泛的流行,声称帮助找回了成百上千台丢失的笔记本和智能手机。Prey的使用特别简单,首先安装在你的笔记本或者手机上,当你的设备不见了,用你的账号登入Prey网站,并且标记你的设备为“丢失”。只要小偷将设备接入网络,Prey就会马上发送设备的地理位置给你。如果你的笔记本有摄像头,它还会拍下该死的贼。
Prey占用很小的系统资源;你不会对你的设备运行有任何影响。你也可以配合其他你已经在设备上安装的防盗软件使用。Prey在你的设备与Prey服务器之间采用安全加密的通道进行数据传输。
![](/data/attachment/album/201505/09/222242k1bqi6shsb7zzaix.jpg)
### 在Ubuntu上安装并配置Prey
让我们来看看如何在Ubuntu上安装和配置Prey,需要提醒的是,在配置过程中,我们必须到Prey官网进行账号注册。一旦完成上述工作,Prey将会开始监视你的设备了。免费的账号最多可以监视三个设备,如果你需要添加更多的设备,你就需要购买合适的的套餐了。
可以想象Prey多么流行与被广泛使用,它现在已经被添加到了官方的软件库中了。这意味着你不要往软件包管理器添加任何PPA。很简单,登录你的终端,运行以下的命令来安装它:
```
sudo apt-get install prey
```
![Install Prey](/data/attachment/album/201505/09/222304yng42gnykmn4mpx6.png)
![Install Prey 1](/data/attachment/album/201505/09/222305d1ds61sl444z51dz.png)
Prey是十分轻巧的软件,只使用了系统几兆的空间,安装完成后,从Application >> Prey启动,之后它会询问你进行相关配置。
选择“New User”,如果你是第一次使用的话。
![Prey New User](/data/attachment/album/201505/09/222306i83ackqrxaxbyzkw.png)
第二步实际上就是官网注册的流程。请提供你的用户名,邮箱地址和密码,来申清一个免费的账号。
![Register Prey](/data/attachment/album/201505/09/222306g2a0y0yy9qo7j89o.png)
点击“Apply”完成,所有工作搞定,现在你的计算机被Prey保护了。
![Prey Configuration](/data/attachment/album/201505/09/222307n1181mz1p5pfo3f3.png)
登录你最新建立的[Prey 账号](https://preyproject.com/),你就应该可以在“Devices”菜单下看见你的设备信息了。
![Prey Web Login](/data/attachment/album/201505/09/222308y05kl9k1cl9k88i4.png)
只要你的笔记本或者任何其他设备丢失了,就登录你的Prey网站账号,然后点击“Set Device to Missing”选项修改设备状态为“missing”。
![Prey Missing Page](/data/attachment/album/201505/09/222309s591i615a9m66d9h.png)
从这里选择定时报告,并点击“Yes,my device is missing”。定时报告选项是指一段时间间隔后,软件会更新并发送给你设备的地理位置。它还会从网页界面那发邮件给你,只要设备的状态改变了。
![Prey Missing Email](/data/attachment/album/201505/09/222309nt7qx4c81q5yb8v6.png)
而一旦被盗的设备接入了互联网,Prey就会马上发送报告给你,包括设备的地理位置和IP地址。
![Prey Found Report](/data/attachment/album/201505/09/222310naohrz3oxhra3r7u.png)
点击报告链接,你应该会看到设备的地理位置和IP地址。
![Prey Final](/data/attachment/album/201505/09/222311lhh3zhyc3jhqulhp.png)
Prey有一个明显的不足。它需要你的设备接入互联网才会发送地理位置给你,如果小偷比较聪明,在接入网络前将你的设备磁盘格式化了,那么你就永远不会收到设备被发现的报告了。但是这里仍然是有一个方法克服这个不足,确保添加一个BIOS密码,并且禁用从可移除的设备里启动系统。
### 结论
这是一款小巧,非常有用的安全保护应用,可以让你在一个地方追踪你所有的设备,尽管不完美,但是仍然提供了找回被盗设备的机会。它在Linux,Windows和Mac平台上无缝运行。以上就是[Prey](https://preyproject.com/plans)完整使用的所有细节。
---
via: <http://linoxide.com/ubuntu-how-to/anti-theft-application-prey-ubuntu/>
作者:[Aun Raza](http://linoxide.com/author/arunrz/) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /ubuntu-how-to/anti-theft-application-prey-ubuntu/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c60e0>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,423 | 在Ubuntu中安装Visual Studio Code | http://itsfoss.com/install-visual-studio-code-ubuntu/ | 2015-05-11T08:20:00 | [
"Visual Studio Code",
"微软"
] | https://linux.cn/article-5423-1.html | ![](/data/attachment/album/201505/10/212136v2fq7ob3pp7s723o.jpg)
微软令人意外地[发布了Visual Studio Code](/article-5376-1.html),并支持主要的桌面平台,当然包括linux。如果你是一名需要在ubuntu工作的web开发人员,你可以**非常轻松的安装Visual Studio Code**。
我将要使用[Ubuntu Make](https://wiki.ubuntu.com/ubuntu-make)来安装Visual Studio Code。Ubuntu Make,就是以前的Ubuntu开发者工具中心,是一个命令行工具,帮助用户快速安装各种开发工具、语言和IDE。也可以使用Ubuntu Make轻松[安装Android Studio](http://itsfoss.com/install-android-studio-ubuntu-linux/) 和其他IDE,如Eclipse。本文将展示**如何在Ubuntu中使用Ubuntu Make安装Visual Studio Code**。(译注:也可以直接去微软官网下载安装包)
### 安装微软Visual Studio Code
开始之前,首先需要安装Ubuntu Make。虽然Ubuntu Make存在Ubuntu15.04官方库中,**但是需要Ubuntu Make 0.7以上版本才能安装Visual Studio**。所以,需要通过官方PPA更新到最新的Ubuntu Make。此PPA支持Ubuntu 14.04, 14.10 和 15.04。
注意,**仅支持64位版本**。
打开终端,使用下列命令,通过官方PPA来安装Ubuntu Make:
```
sudo add-apt-repository ppa:ubuntu-desktop/ubuntu-make
sudo apt-get update
sudo apt-get install ubuntu-make
```
安装Ubuntu Make完后,接着使用下列命令安装Visual Studio Code:
```
umake web visual-studio-code
```
安装过程中,将会询问安装路径,如下图:
![](/data/attachment/album/201505/10/212137ureeadg1c9e3ete6.jpg)
在抛出一堆要求和条件后,它会询问你是否确认安装Visual Studio Code。输入‘a’来确定:
![](/data/attachment/album/201505/10/212138e9j75lja2llwb932.jpg)
确定之后,安装程序会开始下载并安装。安装完成后,你可以发现Visual Studio Code 图标已经出现在了Unity启动器上。点击图标开始运行!下图是Ubuntu 15.04 Unity的截图:
![](/data/attachment/album/201505/10/212139mxxc7gt4vzf6oc6a.jpg)
### 卸载Visual Studio Code
卸载Visual Studio Code,同样使用Ubuntu Make命令。如下:
```
umake web visual-studio-code --remove
```
如果你不打算使用Ubuntu Make,也可以通过微软官方下载安装文件。
* [下载Visual Studio Code Linux版](https://code.visualstudio.com/Download)
怎样!是不是超级简单就可以安装Visual Studio Code,这都归功于Ubuntu Make。我希望这篇文章能帮助到你。如果您有任何问题或建议,欢迎给我留言。
---
via: <http://itsfoss.com/install-visual-studio-code-ubuntu/>
作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[Vic020/VicYu](http://vicyu.net) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,424 | 如何使用Vault安全的存储密码和API密钥 | http://linoxide.com/how-tos/secure-secret-store-vault/ | 2015-05-11T10:48:00 | [
"Vault",
"密码"
] | /article-5424-1.html | Vault是用来安全的获取秘密信息的工具,它可以保存密码、API密钥、证书等信息。Vault提供了一个统一的接口来访问秘密信息,其具有健壮的访问控制机制和丰富的事件日志。
对关键信息的授权访问是一个困难的问题,尤其是当有许多用户角色,并且用户请求不同的关键信息时,例如用不同权限登录数据库的登录配置,用于外部服务的API密钥,SOA通信的证书等。当保密信息由不同的平台进行管理,并使用一些自定义的配置时,情况变得更糟,因此,安全的存储、管理审计日志几乎是不可能的。但Vault为这种复杂情况提供了一个解决方案。
![](/data/attachment/album/201505/10/225346geeym2zywo8w22gi.png)
### 突出特点
**数据加密**:Vault能够在不存储数据的情况下对数据进行加密、解密。开发者们便可以存储加密后的数据而无需开发自己的加密技术,Vault还允许安全团队自定义安全参数。
**安全密码存储**:Vault在将秘密信息(API密钥、密码、证书)存储到持久化存储之前对数据进行加密。因此,如果有人偶尔拿到了存储的数据,这也没有任何意义,除非加密后的信息能被解密。
**动态密码**:Vault可以随时为AWS、SQL数据库等类似的系统产生密码。比如,如果应用需要访问AWS S3 桶,它向Vault请求AWS密钥对,Vault将给出带有租期的所需秘密信息。一旦租用期过期,这个秘密信息就不再存储。
**租赁和更新**:Vault给出的秘密信息带有租期,一旦租用期过期,它便立刻收回秘密信息,如果应用仍需要该秘密信息,则可以通过API更新租用期。
**撤销**:在租用期到期之前,Vault可以撤销一个秘密信息或者一个秘密信息树。
### 安装Vault
有两种方式来安装使用Vault。
**1. 预编译的Vault二进制** 能用于所有的Linux发行版,下载地址如下,下载之后,解压并将它放在系统PATH路径下,以方便调用。
* [下载预编译的二进制 Vault (32-bit)](https://dl.bintray.com/mitchellh/vault/vault_0.1.0_linux_386.zip)
* [下载预编译的二进制 Vault (64-bit)](https://dl.bintray.com/mitchellh/vault/vault_0.1.0_linux_amd64.zip)
* [下载预编译的二进制 Vault (ARM)](https://dl.bintray.com/mitchellh/vault/vault_0.1.0_linux_arm.zip)
![wget binary](/data/attachment/album/201505/10/225355yvnjn3n3ornznnjf.png)
*下载相应的预编译的Vault二进制版本。*
![vault](/data/attachment/album/201505/10/225355pgbjjbmbeezyged8.png)
*解压下载到本地的二进制版本。*
祝贺你!您现在可以使用Vault了。
![](/data/attachment/album/201505/10/225356ok42wt4qzpqts20m.png)
**2. 从源代码编译**是另一种在系统中安装Vault的方式。在安装Vault之前需要安装GO和GIT。
在 **Redhat系统中安装GO** 使用下面的指令:
```
sudo yum install go
```
在 **Debin系统中安装GO** 使用下面的指令:
```
sudo apt-get install golang
```
或者
```
sudo add-apt-repository ppa:gophers/go
sudo apt-get update
sudo apt-get install golang-stable
```
在 **Redhat系统中安装GIT** 使用下面的命令:
```
sudo yum install git
```
在 **Debian系统中安装GIT** 使用下面的命令:
```
sudo apt-get install git
```
一旦GO和GIT都已被安装好,我们便可以开始从源码编译安装Vault。
>
> 将下列的Vault仓库拷贝至GOPATH
>
>
>
```
https://github.com/hashicorp/vault
```
>
> 测试下面的文件是否存在,如果它不存在,那么Vault没有被克隆到合适的路径。
>
>
>
```
$GOPATH/src/github.com/hashicorp/vault/main.go
```
>
> 执行下面的指令来编译Vault,并将二进制文件放到系统bin目录下。
>
>
>
```
make dev
```
![path](/data/attachment/album/201505/10/225357r6lrr4vrmdt08m4v.png)
### 一份Vault入门教程
我们已经编制了一份Vault的官方交互式教程,并带有它在SSH上的输出信息。
**概述**
这份教程包括下列步骤:
* 初始化并启封您的Vault
* 在Vault中对您的请求授权
* 读写秘密信息
* 密封您的Vault
#### **初始化您的Vault**
首先,我们需要为您初始化一个Vault的工作实例。在初始化过程中,您可以配置Vault的密封行为。简单起见,现在使用一个启封密钥来初始化Vault,命令如下:
```
vault init -key-shares=1 -key-threshold=1
```
您会注意到Vault在这里输出了几个密钥。不要清除您的终端,这些密钥在后面的步骤中会使用到。
![Initializing SSH](/data/attachment/album/201505/10/225357tpy1dy9dndg5f9fy.png)
#### **启封您的Vault**
当一个Vault服务器启动时,它是密封的状态。在这种状态下,Vault被配置为知道物理存储在哪里及如何存取它,但不知道如何对其进行解密。Vault使用加密密钥来加密数据。这个密钥由"主密钥"加密,主密钥不保存。解密主密钥需要入口密钥。在这个例子中,我们使用了一个入口密钥来解密这个主密钥。
```
vault unseal <key 1>
```
![Unsealing SSH](/data/attachment/album/201505/10/225358jqa50q4a68mq5t3w.png)
#### **为您的请求授权**
在执行任何操作之前,连接的客户端必须是被授权的。授权的过程是检验一个人或者机器是否如其所申明的那样具有正确的身份。这个身份用在向Vault发送请求时。为简单起见,我们将使用在步骤2中生成的root令牌,这个信息可以回滚终端屏幕看到。使用一个客户端令牌进行授权:
```
vault auth <root token>
```
![Authorize SSH](/data/attachment/album/201505/10/225358ht8zattxx6pxkze7.png)
#### **读写保密信息**
现在Vault已经被设置妥当,我们可以开始读写默认挂载的秘密后端里面的秘密信息了。写在Vault中的秘密信息首先被加密,然后被写入后端存储中。后端存储机制绝不会看到未加密的信息,并且也没有在Vault之外解密的需要。
```
vault write secret/hello value=world
```
当然,您接下来便可以读这个保密信息了:
```
vault read secret/hello
```
![RW_SSH](/data/attachment/album/201505/10/225358xln66nd36udmg06e.png)
#### **密封您的Vault**
还有一个用I来密封Vault的API。它将丢掉现在的加密密钥并需要另一个启封过程来恢复它。密封仅需要一个拥有root权限的操作者。这是一种罕见的"打破玻璃过程"的典型部分。
这种方式中,如果检测到一个入侵,Vault数据将会立刻被锁住,以便最小化损失。如果不能访问到主密钥碎片的话,就不能再次获取数据。
```
vault seal
```
![Seal Vault SSH](/data/attachment/album/201505/10/225359xoa6fqc6lojlqzof.png)
这便是入门教程的结尾。
### 总结
Vault是一个非常有用的应用,它提供了一个可靠且安全的存储关键信息的方式。另外,它在存储前加密关键信息、审计日志维护、以租期的方式获取秘密信息,且一旦租用期过期它将立刻收回秘密信息。Vault是平台无关的,并且可以免费下载和安装。要发掘Vault的更多信息,请访问其[官方网站](https://vaultproject.io/)。
---
via: <http://linoxide.com/how-tos/secure-secret-store-vault/>
作者:[Aun Raza](http://linoxide.com/author/arunrz/) 译者:[wwy-hust](https://github.com/wwy-hust) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /how-tos/secure-secret-store-vault/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c68f0>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,427 | 两种方式创建你自己的 Docker 基本映像 | http://linoxide.com/linux-how-to/2-ways-create-docker-base-image/ | 2015-05-11T14:44:40 | [
"Docker",
"镜像"
] | /article-5427-1.html | 欢迎大家,今天我们学习一下 docker 基本映像以及如何构建我们自己的 docker 基本映像。[Docker](https://www.docker.com/) 是一个开源项目,提供了一个可以打包、装载和运行任何应用的轻量级容器的开放平台。它没有语言支持、框架和打包系统的限制,从小型的家用电脑到高端服务器,在何时何地都可以运行。这使它们可以不依赖于特定软件栈和供应商,像一块块积木一样部署和扩展网络应用、数据库和后端服务。
Docker 映像是不可更改的只读层。Docker 使用 **Union File System** 在只读文件系统上增加可读写的文件系统,但所有更改都发生在最顶层的可写层,而其下的只读映像上的原始文件仍然不会改变。由于映像不会改变,也就没有状态。基本映像是没有父类的那些映像。Docker 基本映像主要的好处是它允许我们有一个独立运行的 Linux 操作系统。
![](/data/attachment/album/201505/11/144443z73a10fo00aafra0.png)
下面是我们如何可以创建自定义的基本映像的方式。
### 1. 使用 Tar 创建 Docker 基本映像
我们可以使用 tar 构建我们自己的基本映像,我们从一个运行中的 Linux 发行版开始,将其打包为基本映像。这过程可能会有些不同,它取决于我们打算构建的发行版。在 Debian 发行版中,已经预带了 debootstrap。在开始下面的步骤之前,我们需要安装 debootstrap。debootstrap 用来获取构建基本系统需要的包。这里,我们构建基于 Ubuntu 14.04 "Trusty" 的映像。要完成这些,我们需要在终端或者 shell 中运行以下命令。
```
$ sudo debootstrap trusty trusty > /dev/null
$ sudo tar -C trusty -c . | sudo docker import - trusty
```
![使用debootstrap构建docker基本映像](/data/attachment/album/201505/11/144446hugjn8rjm5qz8zkp.png)
上面的命令为当前文件夹创建了一个 tar 文件并输出到标准输出中,"docker import - trusty" 通过管道从标准输入中获取这个 tar 文件并根据它创建一个名为 trusty 的基本映像。然后,如下所示,我们将运行映像内部的一条测试命令。
```
$ docker run trusty cat /etc/lsb-release
```
[Docker GitHub Repo](https://github.com/docker/docker/blob/master/contrib/mkimage-busybox.sh) 中有一些允许我们快速构建基本映像的事例脚本.
### 2. 使用Scratch构建基本映像
在 Docker registry 中,有一个被称为 Scratch 的使用空 tar 文件构建的特殊库:
```
$ tar cv --files-from /dev/null | docker import - scratch
```
![使用scratch构建docker基本映像](/data/attachment/album/201505/11/144447drsrrsar8zrrzhld.png)
我们可以使用这个映像构建新的小容器:
```
FROM scratch
ADD script.sh /usr/local/bin/run.sh
CMD ["/usr/local/bin/run.sh"]
```
上面的 Dockerfile 文件来自一个很小的映像。这里,它首先从一个完全空的文件系统开始,然后它复制新建的 /usr/local/bin/run.sh 为 script.sh ,然后运行脚本 /usr/local/bin/run.sh。
### 结尾
这这个教程中,我们学习了如何构建一个开箱即用的自定义 Docker 基本映像。构建一个 docker 基本映像是一个很简单的任务,因为这里有很多已经可用的包和脚本。如果我们想要在里面安装想要的东西,构建 docker 基本映像非常有用。如果有任何疑问,建议或者反馈,请在下面的评论框中写下来。非常感谢!享受吧 :-)
---
via: <http://linoxide.com/linux-how-to/2-ways-create-docker-base-image/>
作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/2-ways-create-docker-base-image/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c5c90>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,428 | 既然float不能表示所有的int,那为什么在类型转换时C++将int转换成float? | http://stackoverflow.com/questions/28010565/why-does-c-promote-an-int-to-a-float-when-a-float-cannot-represent-all-int-val/28011249#28011249 | 2015-05-11T15:11:08 | [
"浮点数"
] | https://linux.cn/article-5428-1.html | ### 问题:
代码如下:
```
int i = 23;
float f = 3.14;
if (i == f) // 执行某段代码
```
编译器会将i转换成float类型,然后比较这两个float的大小,但是float能够表示所有的int吗?为什么没有将int和float转换成double类型进行比较呢?
![](/data/attachment/album/201505/11/151113i3lzgnfjk8jkxdwe.jpg)
### 回答:
在整型数的演变中,当`int`变成`unsigned`时,会丢掉负数部分(有趣的是,这样的话,`0u < -1`就是对的了)。
和C语言中的大部分机制(在C++中得到继承)一样,就硬件操作而言,常见的算术转换应该简明易懂。C语言的发明者精通他们所使用机器上的汇编语言,他们编写的C语言对他们和像他们一样编写程序的人有直接的意义,直到使用汇编语言编写(诸如UNIX内核)的程序时。
现如今,一般来说,处理器并不具有混合类型的指令系统(如float和double相加、比较int和float,诸如此类),因为如果这样做造成芯片晶圆的巨大浪费——如果你想支持更多不同的类型,你不得不实现更多的操作码。然而,在实际中,你只有实现"add int to int"、"compare float to float"和"multiply unsigned with unsigned"等功能的常见指令,这使得优先进行算术转换变得很有必要——它们是指令系统中两种类型的映射关系,它们中的大部分很有用处。
从习惯编写低级别机器代码的编程人员的角度来说,如果有了混合类型,那么在一般情况下最有可能使用的汇编指令就是那些只需要进行最少类型转换的指令。其中,有一种特殊情况就是浮点数的转换,特别是在20世纪70年代早期,当时C语言正在被开发,计算机运行速度很慢,而浮点数的计算是通过软件完成的,所以进行转换的成本很高。这拖慢了常用算术运算的转换开发——当时只有一种操作数实现了转换(这个例外就是long到unsigned int的转换,这种转换没有任何要求,在大部分机器上都可以进行。当然并不是全部,因为总有例外情况)。
所以,编写常用的算术转换是为了完成汇编程序员在大部分时间需要做的事情:即有两种不匹配的类型,将一种转换成另一种。这也就是汇编代码所做的事情,除非有特别原因需要进行其它类型转换。对于那些习惯编写汇编代码的人来说,除非是特殊需要,才会被迫去编写一种不同的类型转换。显然,这种情况下提出编写转换是很自然的事情。虽然,你可以简单地写成这样
```
if((double) i < (double) f)
```
顺便提一下,在这个问题中有趣的是,`unsigned`的优先级高于`int`,所以把`int`和`unsigned`进行比较时,最终进行的是unsigned类型的比较(开头提到的`0u < -1`就是这个道理)。我猜测这可能是在早些时候(计算机发展初期),当时的人们认为`unsigned`比`int`在所表示的数值范围上受到的限制更小:现在还不需要符号位,所以可以使用额外的位来表示更大的数值范围。如果你觉得`int`可能会溢出,那么就使用unsigned好了——在使用16位表示的ints时这个担心会更明显。
---
via: [stackoverflow](http://stackoverflow.com/questions/28010565/why-does-c-promote-an-int-to-a-float-when-a-float-cannot-represent-all-int-val/28011249#28011249)
作者:[wintermute](http://stackoverflow.com/users/4301306/wintermute) 译者:[KayGuoWhu](https://github.com/KayGuoWhu) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,429 | 监控 Linux 容器性能的命令行神器 | http://linoxide.com/how-tos/monitor-linux-containers-performance/ | 2015-05-11T15:54:43 | [
"Docker",
"容器",
"ctop"
] | /article-5429-1.html | ctop是一个新的基于命令行的工具,它可用于在容器层级监控进程。容器通过利用控制器组(cgroup)的资源管理功能,提供了操作系统层级的虚拟化环境。该工具从cgroup收集与内存、CPU、块输入输出的相关数据,以及拥有者、开机时间等元数据,并以人性化的格式呈现给用户,这样就可以快速对系统健康状况进行评估。基于所获得的数据,它可以尝试推测下层的容器技术。ctop也有助于在低内存环境中检测出谁在消耗大量的内存。
### 功能
ctop的一些功能如下:
* 收集CPU、内存和块输入输出的度量值
* 收集与拥有者、容器技术和任务统计相关的信息
* 通过任意栏对信息排序
* 以树状视图显示信息
* 折叠/展开cgroup树
* 选择并跟踪cgroup/容器
* 选择显示数据刷新的时间窗口
* 暂停刷新数据
* 检测基于systemd、Docker和LXC的容器
* 基于Docker和LXC的容器的高级特性
+ 打开/连接shell以进行深度诊断
+ 停止/杀死容器类型
### 安装
**ctop**是由Python写成的,因此,除了需要Python 2.6或其更高版本外(带有内建的光标支持),别无其它外部依赖。推荐使用Python的pip进行安装,如果还没有安装pip,请先安装,然后使用pip安装ctop。
*注意:本文样例来自Ubuntu(14.10)系统*
```
$ sudo apt-get install python-pip
```
使用pip安装ctop:
```
poornima@poornima-Lenovo:~$ sudo pip install ctop
[sudo] password for poornima:
Downloading/unpacking ctop
Downloading ctop-0.4.0.tar.gz
Running setup.py (path:/tmp/pip_build_root/ctop/setup.py) egg_info for package ctop
Installing collected packages: ctop
Running setup.py install for ctop
changing mode of build/scripts-2.7/ctop from 644 to 755
changing mode of /usr/local/bin/ctop to 755
Successfully installed ctop
Cleaning up...
```
如果不选择使用pip安装,你也可以使用wget直接从github安装:
```
poornima@poornima-Lenovo:~$ wget https://raw.githubusercontent.com/yadutaf/ctop/master/cgroup_top.py -O ctop
--2015-04-29 19:32:53-- https://raw.githubusercontent.com/yadutaf/ctop/master/cgroup_top.py
Resolving raw.githubusercontent.com (raw.githubusercontent.com)... 199.27.78.133
Connecting to raw.githubusercontent.com (raw.githubusercontent.com)|199.27.78.133|:443... connected.
HTTP request sent, awaiting response... 200 OK Length: 27314 (27K) [text/plain]
Saving to: ctop
100%[======================================>] 27,314 --.-K/s in 0s
2015-04-29 19:32:59 (61.0 MB/s) - ctop saved [27314/27314]
```
---
```
poornima@poornima-Lenovo:~$ chmod +x ctop
```
如果cgroup-bin包没有安装,你可能会碰到一个错误消息,你可以通过安装需要的包来解决。
```
poornima@poornima-Lenovo:~$ ./ctop
[ERROR] Failed to locate cgroup mountpoints.
poornima@poornima-Lenovo:~$ sudo apt-get install cgroup-bin
```
下面是ctop的输出样例:
![ctop screen](/data/attachment/album/201505/11/155445sj0ir9xdtx3cwfr9.png)
*ctop屏幕*
### 用法选项
```
ctop [--tree] [--refresh=] [--columns=] [--sort-col=] [--follow=] [--fold=, ...] ctop (-h | --help)
```
当你进入ctop屏幕,可使用上(↑)和下(↓)箭头键在容器间导航。点击某个容器就选定了该容器,按q或Ctrl+C退出该容器。
现在,让我们来看看上面列出的那一堆选项究竟是怎么用的吧。
**-h / --help - 显示帮助信息**
```
poornima@poornima-Lenovo:~$ ctop -h
Usage: ctop [options]
Options:
-h, --help show this help message and exit
--tree show tree view by default
--refresh=REFRESH Refresh display every <seconds>
--follow=FOLLOW Follow cgroup path
--columns=COLUMNS List of optional columns to display. Always includes
'name'
--sort-col=SORT_COL Select column to sort by initially. Can be changed
dynamically.
```
**--tree - 显示容器的树形视图**
默认情况下,会显示列表视图
当你进入ctop窗口,你可以使用F5按钮在树状/列表视图间切换。
**--fold= - 在树形视图中折叠名为 <name> 的 cgroup 路径**
该选项需要与 --tree 选项组合使用。
例子: ctop --tree --fold=/user.slice
![Output of 'ctop --fold'](/data/attachment/album/201505/11/155445wibankkerjy2iee2.png)
*'ctop --fold'的输出*
在ctop窗口中,使用+/-键来展开或折叠子cgroup。
注意:在写本文时,pip仓库中还没有最新版的ctop,还不支持命令行的‘--fold’选项
**--follow= - 跟踪/高亮 cgroup 路径**
例子: ctop --follow=/user.slice/user-1000.slice
正如你在下面屏幕中所见到的那样,带有“/user.slice/user-1000.slice”路径的cgroup被高亮显示,这让用户易于跟踪,就算显示位置变了也一样。
![Output of 'ctop --follow'](/data/attachment/album/201505/11/155446sldaxvluru2xbzwl.png)
*'ctop --follow'的输出*
你也可以使用‘f’按钮来让高亮的行跟踪选定的容器。默认情况下,跟踪是关闭的。
**--refresh= - 按指定频率刷新显示,默认1秒**
这对于按每用户需求来显示改变刷新率时很有用。使用‘p’按钮可以暂停刷新并选择文本。
**--columns= - 限定只显示选定的列。'name' 需要是第一个字段,其后跟着其它字段。默认情况下,字段包括:owner, processes,memory, cpu-sys, cpu-user, blkio, cpu-time**
例子: ctop --columns=name,owner,type,memory
![Output of 'ctop --column'](/data/attachment/album/201505/11/155447eljdiaz27t0jt7az.png)
*'ctop --column'的输出*
**-sort-col= - 按指定的列排序。默认使用 cpu-user 排序**
例子: ctop --sort-col=blkio
如果有Docker和LXC支持的额外容器,跟踪选项也是可用的:
```
press 'a' - 接驳到终端输出
press 'e' - 打开容器中的一个 shell
press 's' - 停止容器 (SIGTERM)
press 'k' - 杀死容器 (SIGKILL)
```
目前 Jean-Tiare Le Bigot 还在积极开发 [ctop](https://github.com/yadutaf/ctop) 中,希望我们能在该工具中见到像本地 top 命令一样的特性 :-)
---
via: <http://linoxide.com/how-tos/monitor-linux-containers-performance/>
作者:[B N Poornima](http://linoxide.com/author/bnpoornima/) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /how-tos/monitor-linux-containers-performance/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c59c0>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,430 | iptraf:一个实用的TCP/UDP网络监控工具 | http://www.unixmen.com/iptraf-tcpudp-network-monitoring-utility/ | 2015-05-12T07:33:00 | [
"iptraf"
] | https://linux.cn/article-5430-1.html | [iptraf](http://iptraf.seul.org/about.html)是一个基于ncurses的IP局域网监控器,用来生成包括TCP信息、UDP计数、ICMP和OSPF信息、以太网负载信息、节点状态信息、IP校验和错误等等统计数据。
它基于ncurses的用户界面可以使用户免于记忆繁琐的命令行开关。
### 特征
* IP流量监控器,用来显示你的网络中的IP流量变化信息。包括TCP标识信息、包以及字节计数,ICMP细节,OSPF包类型。
* 简单的和详细的接口统计数据,包括IP、TCP、UDP、ICMP、非IP以及其他的IP包计数、IP校验和错误,接口活动、包大小计数。
* TCP和UDP服务监控器,能够显示常见的TCP和UDP应用端口上发送的和接收的包的数量。
* 局域网数据统计模块,能够发现在线的主机,并显示其上的数据活动统计信息。
* TCP、UDP、及其他协议的显示过滤器,允许你只查看感兴趣的流量。
* 日志功能。
* 支持以太网、FDDI、ISDN、SLIP、PPP以及本地回环接口类型。
* 利用Linux内核内置的原始套接字接口,允许它(指iptraf)能够用于各种支持的网卡上
* 全屏,菜单式驱动的操作。
### 安装方法
**Ubuntu以及其衍生版本**
```
sudo apt-get install iptraf
```
**Arch Linux以及其衍生版本**
```
sudo pacman -S iptra
```
**Fedora以及其衍生版本**
```
sudo yum install iptraf
```
### 用法
如果不加任何命令行选项地运行**iptraf**命令,程序将进入一种交互模式,通过主菜单可以访问多种功能。
![](/data/attachment/album/201505/11/223439m7jkjvfl6fevwtmf.png)
简易的上手导航菜单。
![](/data/attachment/album/201505/11/223439qqi84nuq5x8uwx18.png)
选择要监控的接口。
![](/data/attachment/album/201505/11/223440c1lr8hd5lrrdhgke.png)
接口**ppp0**处的流量。
![](/data/attachment/album/201505/11/223440l1qhy7z4wjje68ex.png)
试试吧!
---
via: <http://www.unixmen.com/iptraf-tcpudp-network-monitoring-utility/>
作者:[Enock Seth Nyamador](http://www.unixmen.com/author/seth/) 译者:[DongShuaike](https://github.com/DongShuaike) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,435 | 一大波你可能不知道的 Linux 网络工具 | http://linoxide.com/monitoring-2/network-monitoring-tools-linux/ | 2015-05-12T14:52:00 | [
"网络",
"监控"
] | /article-5435-1.html | 如果要在你的系统上监控网络,那么使用命令行工具是非常实用的,并且对于 Linux 用户来说,有着许许多多现成的工具可以使用,如: nethogs, ntopng, nload, iftop, iptraf, bmon, slurm, tcptrack, cbm, netwatch, collectl, trafshow, cacti, etherape, ipband, jnettop, netspeed 以及 speedometer。
鉴于世上有着许多的 Linux 专家和开发者,显然还存在其他的网络监控工具,但在这篇教程中,我不打算将它们所有包括在内。
上面列出的工具都有着自己的独特之处,但归根结底,它们都做着监控网络流量的工作,只是通过各种不同的方法。例如 nethogs 可以被用来展示每个进程的带宽使用情况,以防你想知道究竟是哪个应用在消耗了你的整个网络资源; iftop 可以被用来展示每个套接字连接的带宽使用情况,而像 nload 这类的工具可以帮助你得到有关整个带宽的信息。
### 1) nethogs
nethogs 是一个免费的工具,当要查找哪个 PID (注:即 process identifier,进程 ID) 给你的网络流量带来了麻烦时,它是非常方便的。它按每个进程来分组带宽,而不是像大多数的工具那样按照每个协议或每个子网来划分流量。它功能丰富,同时支持 IPv4 和 IPv6,并且我认为,若你想在你的 Linux 主机上确定哪个程序正消耗着你的全部带宽,它是来做这件事的最佳的程序。
一个 Linux 用户可以使用 **nethogs** 来显示每个进程的 TCP 下载和上传速率,可以使用命令 **nethogs eth0** 来监控一个指定的设备,上面的 eth0 是那个你想获取信息的设备的名称,你还可以得到有关正在传输的数据的传输速率信息。
对我而言, nethogs 是非常容易使用的,或许是因为我非常喜欢它,以至于我总是在我的 Ubuntu 12.04 LTS 机器中使用它来监控我的网络带宽。
例如要想使用混杂模式来嗅探,可以像下面展示的命令那样使用选项 -p:
```
nethogs -p wlan0
```
假如你想更多地了解 nethogs 并深入探索它,那么请毫不犹豫地阅读我们做的关于这个网络带宽监控工具的整个教程。
(LCTT 译注:关于 nethogs 的更多信息可以参考:</article-2808-1.html> )
### 2) nload
nload 是一个控制台应用,可以被用来实时地监控网络流量和带宽使用情况,它还通过提供两个简单易懂的图表来对流量进行可视化。这个绝妙的网络监控工具还可以在监控过程中切换被监控的设备,而这可以通过按左右箭头来完成。
![network monitoring tools in linux](/data/attachment/album/201505/12/145257j2fumafcy1nnh1hm.png)
正如你在上面的截图中所看到的那样,由 nload 提供的图表是非常容易理解的。nload 提供了有用的信息,也展示了诸如被传输数据的总量和最小/最大网络速率等信息。
而更酷的是你只需要直接运行 nload 这个工具就行,这个命令是非常的短小且易记的:
```
nload
```
我很确信的是:我们关于如何使用 nload 的详细教程将帮助到新的 Linux 用户,甚至可以帮助那些正寻找关于 nload 信息的老手。
(LCTT 译注:关于 nload 的更新信息可以参考:</article-5114-1.html> )
### 3) slurm
slurm 是另一个 Linux 网络负载监控工具,它以一个不错的 ASCII 图来显示结果,它还支持许多按键用以交互,例如 **c** 用来切换到经典模式, **s** 切换到分图模式, **r** 用来重绘屏幕, **L** 用来启用 TX/RX 灯(注:TX,发送流量;RX,接收流量) ,**m** 用来在经典分图模式和大图模式之间进行切换, **q** 退出 slurm。
![linux network load monitoring tools](/data/attachment/album/201505/12/145258ddyrnzs2soddg18r.png)
在网络负载监控工具 slurm 中,还有许多其它的按键可用,你可以很容易地使用下面的命令在 man 手册中学习它们。
```
man slurm
```
slurm 在 Ubuntu 和 Debian 的官方软件仓库中可以找到,所以使用这些发行版本的用户可以像下面展示的那样,使用 apt-get 安装命令来轻松地下载它:
```
sudo apt-get install slurm
```
我们已经在一个[教程](http://linoxide.com/ubuntu-how-to/monitor-network-load-slurm-tool/)中对 slurm 的使用做了介绍,不要忘记和其它使用 Linux 的朋友分享这些知识。
### 4) iftop
当你想显示连接到网卡上的各个主机的带宽使用情况时,iftop 是一个非常有用的工具。根据 man 手册,**iftop** 在一个指定的接口或在它可以找到的第一个接口(假如没有任何特殊情况,它应该是一个对外的接口)上监听网络流量,并且展示出一个表格来显示当前的一对主机间的带宽使用情况。
通过在虚拟终端中使用下面的命令,Ubuntu 和 Debian 用户可以在他们的机器中轻易地安装 iftop:
```
sudo apt-get install iftop
```
在你的机器上,可以使用下面的命令通过 yum 来安装 iftop:
```
yum -y install iftop
```
(LCTT 译注:关于 nload 的更多信息请参考:</article-1843-1.html> )
### 5) collectl
collectl 可以被用来收集描述当前系统状态的数据,并且它支持如下两种模式:
* 记录模式
* 回放模式
**记录模式** 允许从一个正在运行的系统中读取数据,然后将这些数据要么显示在终端中,要么写入一个或多个文件或一个套接字中。
**回放模式**
根据 man 手册,在这种模式下,数据从一个或多个由记录模式生成的数据文件中读取。
Ubuntu 和 Debian 用户可以在他们的机器上使用他们默认的包管理器来安装 colletcl。下面的命令将为他们做这个工作:
```
sudo apt-get install collectl
```
还可以使用下面的命令来安装 collectl, 因为对于这些发行版本(注:这里指的是用 yum 作为包管理器的发行版本),在它们官方的软件仓库中也含有 collectl:
```
yum install collectl
```
(LCTT 译注:关于 collectl 的更多信息请参考: </article-3154-1.html> )
### 6) Netstat
Netstat 是一个用来监控**传入和传出的网络数据包统计数据**的接口统计数据命令行工具。它会显示 TCP 连接 (包括上传和下行),路由表,及一系列的网络接口(网卡或者SDN接口)和网络协议统计数据。
Ubuntu 和 Debian 用户可以在他们的机器上使用默认的包管理器来安装 netstat。Netsta 软件被包括在 net-tools 软件包中,并可以在 shell 或虚拟终端中运行下面的命令来安装它:
```
sudo apt-get install net-tools
```
CentOS, Fedora, RHEL 用户可以在他们的机器上使用默认的包管理器来安装 netstat。Netstat 软件被包括在 net-tools 软件包中,并可以在 shell 或虚拟终端中运行下面的命令来安装它:
```
yum install net-tools
```
运行下面的命令使用 Netstat 来轻松地监控网络数据包统计数据:
```
netstat
```
![Netstat](/data/attachment/album/201505/12/145259ustjy0xut24ewr4r.png)
更多的关于 netstat 的信息,我们可以简单地在 shell 或终端中键入 man netstat 来了解:
```
man netstat
```
![man netstat](/data/attachment/album/201505/12/145259wia38exx1hapzhxx.png)
(LCTT 译注:关于 netstat 的更多信息请参考:</article-2434-1.html> )
### 7) Netload
netload 命令只展示一个关于当前网络荷载和自从程序运行之后传输数据总的字节数目的简要报告,它没有更多的功能。它是 netdiag 软件的一部分。
我们可以在 fedora 中使用 yum 来安装 Netload,因为它在 fedora 的默认软件仓库中。但假如你运行的是 CentOS 或 RHEL,则我们需要安装 [rpmforge 软件仓库](http://pkgs.org/centos-7/repoforge-x86_64/netwatch-1.0c-1.el7.rf.x86_64.rpm.html)。
```
# yum install netdiag
```
Netload 是默认仓库中 netdiag 的一部分,我们可以轻易地使用下面的命令来利用 **apt** 包管理器安装 **netdiag**:
```
$ sudo apt-get install netdiag
```
为了运行 netload,我们需要确保选择了一个正在工作的网络接口的名称,如 eth0, eh1, wlan0, mon0等,然后在 shell 或虚拟终端中运行下面的命令:
```
$ netload wlan2
```
注意: 请将上面的 wlan2 替换为你想使用的网络接口名称,假如你想通过扫描了解你的网络接口名称,可以在一个虚拟终端或 shell 中运行 `ip link show` 命令。
### 8) Nagios
Nagios 是一个领先且功能强大的开源监控系统,它使得网络或系统管理员可以在服务器的各种问题影响到服务器的主要事务之前,发现并解决这些问题。 有了 Nagios 系统,管理员便可以在一个单一的窗口中监控远程的 Linux 、Windows 系统、交换机、路由器和打印机等。它会显示出重要的警告并指出在你的网络或服务器中是否出现某些故障,这可以间接地帮助你在问题发生前就着手执行补救行动。
Nagios 有一个 web 界面,其中有一个图形化的活动监视器。通过浏览网页 http://localhost/nagios/ 或 http://localhost/nagios3/ 便可以登录到这个 web 界面。假如你在远程的机器上进行操作,请使用你的 IP 地址来替换 localhost,然后键入用户名和密码,我们便会看到如下图所展示的信息:
![在 Chromium 浏览器中的 Nagios3](/data/attachment/album/201505/12/145300xdap6drbdyybf4w4.png)
(LCTT 译注:关于 Nagios 的更多信息请参考:</article-2436-1.html> )
### 9) EtherApe
EtherApe 是一个针对 Unix 的图形化网络监控工具,它仿照了 etherman 软件。它支持链路层、IP 和 TCP 等模式,并支持以太网, FDDI, 令牌环, ISDN, PPP, SLIP 及 WLAN 设备等接口,以及一些封装格式。主机和连接随着流量和协议而改变其尺寸和颜色。它可以过滤要展示的流量,并可从一个文件或运行的网络中读取数据包。
在 CentOS、Fedora、RHEL 等 Linux 发行版本中安装 etherape 是一件容易的事,因为在它们的官方软件仓库中就可以找到 etherape。我们可以像下面展示的命令那样使用 yum 包管理器来安装它:
```
yum install etherape
```
我们也可以使用下面的命令在 Ubuntu、Debian 及它们的衍生发行版本中使用 **apt** 包管理器来安装 EtherApe :
```
sudo apt-get install etherape
```
在 EtherApe 安装到你的系统之后,我们需要像下面那样以 root 权限来运行 etherape:
```
sudo etherape
```
然后, **etherape** 的 **图形用户界面** 便会被执行。接着,在菜单上面的 **捕捉** 选项下,我们可以选择 **模式**(IP,链路层,TCP) 和 **接口**。一切设定完毕后,我们需要点击 **开始** 按钮。接着我们便会看到类似下面截图的东西:
![EtherApe](/data/attachment/album/201505/12/145301jybg1tyhobt7opxd.png)
### 10) tcpflow
tcpflow 是一个命令行工具,它可以捕捉 TCP 连接(流)的部分传输数据,并以一种方便协议分析或除错的方式来存储数据。它重构了实际的数据流并将每个流存储在不同的文件中,以备日后的分析。它能识别 TCP 序列号并可以正确地重构数据流,不管是在重发还是乱序发送状态下。
通过 **apt** 包管理器在 Ubuntu 、Debian 系统中安装 tcpflow 是很容易的,因为默认情况下在官方软件仓库中可以找到它。
```
$ sudo apt-get install tcpflow
```
我们可以使用下面的命令通过 **yum** 包管理器在 Fedora 、CentOS 、RHEL 及它们的衍生发行版本中安装 tcpflow:
```
# yum install tcpflow
```
假如在软件仓库中没有找到它或不能通过 yum 包管理器来安装它,则我们需要像下面展示的那样从 **<http://pkgs.repoforge.org/tcpflow/>** 上手动安装它:
假如你运行 64 位的 PC:
```
# yum install --nogpgcheck http://pkgs.repoforge.org/tcpflow/tcpflow-0.21-1.2.el6.rf.x86_64.rpm
```
假如你运行 32 位的 PC:
```
# yum install --nogpgcheck http://pkgs.repoforge.org/tcpflow/tcpflow-0.21-1.2.el6.rf.i686.rpm
```
我们可以使用 tcpflow 来捕捉全部或部分 tcp 流量,并以一种简单的方式把它们写到一个可读的文件中。下面的命令就可以完成这个事情,但我们需要在一个空目录中运行下面的命令,因为它将创建诸如 x.x.x.x.y-a.a.a.a.z 格式的文件,运行之后,只需按 Ctrl-C 便可停止这个命令。
```
$ sudo tcpflow -i eth0 port 8000
```
注意:请将上面的 eth0 替换为你想捕捉的网卡接口名称。
### 11) IPTraf
[IPTraf](http://iptraf.seul.org/) 是一个针对 Linux 平台的基于控制台的网络统计应用。它生成一系列的图形,如 TCP 连接的包/字节计数、接口信息和活动指示器、 TCP/UDP 流量故障以及局域网内设备的包/字节计数。
在默认的软件仓库中可以找到 IPTraf,所以我们可以使用下面的命令通过 **apt** 包管理器轻松地安装 IPTraf:
```
$ sudo apt-get install iptraf
```
我们可以使用下面的命令通过 **yum** 包管理器轻松地安装 IPTraf:
```
# yum install iptraf
```
我们需要以管理员权限来运行 IPTraf,并带有一个有效的网络接口名。这里,我们的网络接口名为 wlan2,所以我们使用 wlan2 来作为参数:
```
$ sudo iptraf wlan2
```
![IPTraf](/data/attachment/album/201505/12/145301iahi0efpp4i1956p.png)
开始通常的网络接口统计,键入:
```
# iptraf -g
```
查看接口 eth0 的详细统计信息,使用:
```
# iptraf -d eth0
```
查看接口 eth0 的 TCP 和 UDP 监控信息,使用:
```
# iptraf -z eth0
```
查看接口 eth0 的包的大小和数目,使用:
```
# iptraf -z eth0
```
注意:请将上面的 eth0 替换为你的接口名称。你可以通过运行`ip link show`命令来检查你的接口。
(LCTT 译注:关于 iptraf 的更多详细信息请参考:</article-5430-1.html> )
### 12) Speedometer
Speedometer 是一个小巧且简单的工具,它只用来绘出一幅包含有通过某个给定端口的上行、下行流量的好看的图。
在默认的软件仓库中可以找到 Speedometer ,所以我们可以使用下面的命令通过 **yum** 包管理器轻松地安装 Speedometer:
```
# yum install speedometer
```
我们可以使用下面的命令通过 **apt** 包管理器轻松地安装 Speedometer:
```
$ sudo apt-get install speedometer
```
Speedometer 可以简单地通过在 shell 或虚拟终端中执行下面的命令来运行:
```
$ speedometer -r wlan2 -t wlan2
```
![Speedometer](/data/attachment/album/201505/12/145302wwqjz555q57q0qg9.png)
注:请将上面的 wlan2 替换为你想要使用的网络接口名称。
### 13) Netwatch
Netwatch 是 netdiag 工具集里的一部分,它也显示当前主机和其他远程主机的连接情况,以及在每个连接中数据传输的速率。
我们可以使用 yum 在 fedora 中安装 Netwatch,因为它在 fedora 的默认软件仓库中。但若你运行着 CentOS 或 RHEL , 我们需要安装 [rpmforge 软件仓库](http://pkgs.org/centos-7/repoforge-x86_64/netwatch-1.0c-1.el7.rf.x86_64.rpm.html)。
```
# yum install netwatch
```
Netwatch 是 netdiag 的一部分,可以在默认的软件仓库中找到,所以我们可以轻松地使用下面的命令来利用 **apt** 包管理器安装 **netdiag**:
```
$ sudo apt-get install netdiag
```
为了运行 netwatch, 我们需要在虚拟终端或 shell 中执行下面的命令:
```
$ sudo netwatch -e wlan2 -nt
```
![Netwatch](/data/attachment/album/201505/12/145302x33zknj0rz6udj6w.png)
注意: 请将上面的 wlan2 替换为你想使用的网络接口名称,假如你想通过扫描了解你的网络接口名称,可以在一个虚拟终端或 shell 中运行 `ip link show` 命令。
### 14) Trafshow
Trafshow 同 netwatch 和 pktstat 一样,可以报告当前活动的连接里使用的协议和每个连接中数据传输的速率。它可以使用 pcap 类型的过滤器来筛选出特定的连接。
我们可以使用 yum 在 fedora 中安装 trafshow ,因为它在 fedora 的默认软件仓库中。但若你正运行着 CentOS 或 RHEL , 我们需要安装 [rpmforge 软件仓库](http://pkgs.org/centos-6/epel-x86_64/trafshow-5.2.3-6.el6.x86_64.rpm.html)。
```
# yum install trafshow
```
Trafshow 在默认仓库中可以找到,所以我们可以轻松地使用下面的命令来利用 **apt** 包管理器安装它:
```
$ sudo apt-get install trafshow
```
为了使用 trafshow 来执行监控任务,我们需要在虚拟终端或 shell 中执行下面的命令:
```
$ sudo trafshow -i wlan2
```
![Trafshow](/data/attachment/album/201505/12/145303mzuagwzxwpwxg6ng.png)
为了专门监控 tcp 连接,如下面一样添加上 tcp 参数:
```
$ sudo trafshow -i wlan2 tcp
```
![Trafshow tcp](/data/attachment/album/201505/12/145304hueslqebrlg5z15n.png)
注意: 请将上面的 wlan2 替换为你想使用的网络接口名称,假如你想通过扫描了解你的网络接口名称,可以在一个虚拟终端或 shell 中运行 `ip link show` 命令。
### 15) Vnstat
与大多数的其他工具相比,Vnstat 有一点不同。实际上它运行着一个后台服务或守护进程,并时刻记录着传输数据的大小。另外,它可以被用来生成一个网络使用历史记录的报告。
我们需要开启 EPEL 软件仓库,然后运行 **yum** 包管理器来安装 vnstat。
```
# yum install vnstat
```
Vnstat 在默认软件仓库中可以找到,所以我们可以使用下面的命令运行 **apt** 包管理器来安装它:
```
$ sudo apt-get install vnstat
```
不带有任何选项运行 vnstat 将简单地展示出从该守护进程运行后数据传输的总量。
```
$ vnstat
```
![vnstat](/data/attachment/album/201505/12/145304h9gd54rn8gnl89zn.png)
为了实时地监控带宽使用情况,使用 ‘-l’ 选项(live 模式)。然后它将以一种非常精确的方式来展示上行和下行数据所使用的带宽总量,但不会显示任何有关主机连接或进程的内部细节。
```
$ vnstat -l
```
![Vnstat 实时模式](/data/attachment/album/201505/12/145305dj4ghh43n4lb5elk.png)
完成了上面的步骤后,按 Ctrl-C 来停止,这将会得到如下类型的输出:
![Vnstat 实时结果](/data/attachment/album/201505/12/145305hqaj42j76jo8yssu.png)
### 16) tcptrack
[tcptrack](http://linux.die.net/man/1/tcptrack) 可以展示 TCP 连接的状态,它在一个给定的网络端口上进行监听。tcptrack 监控它们的状态并展示出排序且不断更新的列表,包括来源/目标地址、带宽使用情况等信息,这与 **top** 命令的输出非常类似 。
鉴于 tcptrack 在软件仓库中,我们可以轻松地在 Debian、Ubuntu 系统中从软件仓库使用 **apt** 包管理器来安装 tcptrack。为此,我们需要在 shell 或虚拟终端中执行下面的命令:
```
$ sudo apt-get install tcptrack
```
我们可以通过 yum 在 fedora 中安装它,因为它在 fedora 的默认软件仓库中。但若你运行着 CentOS 或 RHEL 系统,我们需要安装 [rpmforge 软件仓库](http://pkgs.org/centos-6/repoforge-x86_64/tcptrack-1.4.0-1.el6.rf.x86_64.rpm.html)。为此,我们需要运行下面的命令:
```
# wget http://apt.sw.be/redhat/el6/en/x86_64/rpmforge/RPMS/rpmforge-release-0.5.3-1.el6.rf.x86_64.rpm
# rpm -Uvh rpmforge-release*rpm
# yum install tcptrack
```
注:这里我们下载了 rpmforge-release 的当前最新版本,即 0.5.3-1,你总是可以从 rpmforge 软件仓库中下载其最新版本,并请在上面的命令中替换为你下载的版本。
**tcptrack** 需要以 root 权限或超级用户身份来运行。执行 tcptrack 时,我们需要带上要监视的网络接口 TCP 连接状况的接口名称。这里我们的接口名称为 wlan2,所以如下面这样使用:
```
sudo tcptrack -i wlan2
```
![tcptrack](/data/attachment/album/201505/12/145306itrpx4caaz9qx89w.png)
假如你想监控特定的端口,则使用:
```
# tcptrack -i wlan2 port 80
```
![tcptrack port 80](/data/attachment/album/201505/12/145306bwfbknz2kenblffy.png)
请替换上面的 80 为你想要监控的端口号。注意: 请将上面的 wlan2 替换为你想使用的网络接口名称,假如你想通过扫描了解你的网络接口名称,可以在一个虚拟终端或 shell 中运行 `ip link show` 命令。
### 17) CBM
CBM ( Color Bandwidth Meter) 可以展示出当前所有网络设备的流量使用情况。这个程序是如此的简单,以至于都可以从它的名称中看出其功能。CBM 的源代码和新版本可以在 <http://www.isotton.com/utils/cbm/> 上找到。
鉴于 CBM 已经包含在软件仓库中,我们可以简单地使用 **apt** 包管理器从 Debian、Ubuntu 的软件仓库中安装 CBM。为此,我们需要在一个 shell 窗口或虚拟终端中运行下面的命令:
```
$ sudo apt-get install cbm
```
我们只需使用下面展示的命令来在 shell 窗口或虚拟终端中运行 cbm:
```
$ cbm
```
![Color Bandwidth Meter](/data/attachment/album/201505/12/145307ht3e3tj4j5dp4ozm.png)
### 18) bmon
[Bmon](https://github.com/tgraf/bmon/) ( Bandwidth Monitoring) ,是一个用于调试和实时监控带宽的工具。这个工具能够检索各种输入模块的统计数据。它提供了多种输出方式,包括一个基于 curses 库的界面,轻量级的HTML输出,以及 ASCII 输出格式。
bmon 可以在软件仓库中找到,所以我们可以通过使用 apt 包管理器来在 Debian、Ubuntu 中安装它。为此,我们需要在一个 shell 窗口或虚拟终端中运行下面的命令:
```
$ sudo apt-get install bmon
```
我们可以使用下面的命令来运行 bmon 以监视我们的网络状态:
```
$ bmon
```
![bmon](/data/attachment/album/201505/12/145307p8u1u5gct8gcc9gg.png)
### 19) tcpdump
[TCPDump](http://www.tcpdump.org/) 是一个用于网络监控和数据获取的工具。它可以为我们节省很多的时间,并可用来调试网络或服务器的相关问题。它可以打印出在某个网络接口上与布尔表达式相匹配的数据包所包含的内容的一个描述。
tcpdump 可以在 Debian、Ubuntu 的默认软件仓库中找到,我们可以简单地以 sudo 权限使用 apt 包管理器来安装它。为此,我们需要在一个 shell 窗口或虚拟终端中运行下面的命令:
```
$ sudo apt -get install tcpdump
```
tcpdump 也可以在 Fedora、CentOS、RHEL 的软件仓库中找到。我们可以像下面一样通过 yum 包管理器来安装它:
```
# yum install tcpdump
```
tcpdump 需要以 root 权限或超级用户来运行,我们需要带上我们想要监控的 TCP 连接的网络接口名称来执行 tcpdump 。在这里,我们有 wlan2 这个网络接口,所以可以像下面这样使用:
```
$ sudo tcpdump -i wlan2
```
![tcpdump](/data/attachment/album/201505/12/145308ecg4ogw4k4jwylas.png)
假如你只想监视一个特定的端口,则可以运行下面的命令。下面是一个针对 80 端口(网络服务器)的例子:
```
$ sudo tcpdump -i wlan2 'port 80'
```
![tcpdump port](/data/attachment/album/201505/12/145309nyhosqpf4yafn23a.png)
### 20) ntopng
[ntopng](http://www.ntop.org/) 是 ntop 的下一代版本。它是一个用于展示网络使用情况的网络探头,在一定程度上它与 top 针对进程所做的工作类似。ntopng 基于 libpcap 并且它以可移植的方式被重写,以达到可以在每一个 Unix 平台 、 MacOSX 以及 Win32 上运行的目的。
为了在 Debian,Ubuntu 系统上安装 ntopng,首先我们需要安装 **编译 ntopng 所需的依赖软件包**。你可以通过在一个 shell 窗口或一个虚拟终端中运行下面的命令来安装它们:
```
$ sudo apt-get install libpcap-dev libglib2.0-dev libgeoip-dev redis-server wget libxml2-dev build-essential checkinstall
```
现在,我们需要像下面一样针对我们的系统手动编译 ntopng :
```
$ sudo wget http://sourceforge.net/projects/ntop/files/ntopng/ntopng-1.1_6932.tgz/download
$ sudo tar zxfv ntopng-1.1_6932.tgz
$ sudo cd ntopng-1.1_6932
$ sudo ./configure
$ sudo make
$ sudo make install
```
这样,在你的 Debian 或 Ubuntu 系统上应该已经安装上了你编译的 ntopng 。
我们已经有了有关 ntopng 的使用方法的[教程](http://linoxide.com/monitoring-2/ntopng-network-monitoring-tool/),它既可以在命令行也可以在 Web 界面中使用,我们可以前往这些教程来获得有关 ntopng 的知识。
### 结论
在这篇文章中,我们介绍了一些在 Linux 下的网络负载监控工具,这对于系统管理员甚至是新手来说,都是很有帮助的。在这篇文章中介绍的每一个工具都具有其特点,不同的选项等,但最终它们都可以帮助你来监控你的网络流量。
---
via: <http://linoxide.com/monitoring-2/network-monitoring-tools-linux/>
作者:[Bobbin Zachariah](http://linoxide.com/author/bobbin/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /monitoring-2/network-monitoring-tools-linux/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c4d30>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,436 | 百度在人工智能基准测试中取得了全球第一! | http://blogs.wsj.com/digits/2015/05/12/baidu-leads-in-artificial-intelligence-benchmark/ | 2015-05-12T22:05:00 | [
"百度",
"超算",
"人工智能"
] | https://linux.cn/article-5436-1.html | ![](/data/attachment/album/201505/12/211656v8m8wxybppyzjuxb.jpg)
据《华尔街日报》报道,百度公司发布消息称,它取得了近来备受关注的人工智能基准测试的全球最好成绩。这归功于百度研发的秘密武器: Minwa 超级计算机。
Minwa 超级计算机通过扫描 [ImageNet](http://www.image-net.org/) 取得了这一成绩,这是一个超过百万张图片的数据库,需要将其分类到1000个不同的类别里面。这意味着计算机需要学习法国面包和烤肉卷之间的区别,更棘手的是,甚至还要能区分来克兰小猎犬和猎狐犬之间的不同!(百度的 Minwa 包含36个服务器节点,每个节点由2个六核英特尔Xeon E5-2620处理器和4个NVIDIA Tesla K40m GPU构成。Minwa超级电脑有1.7TB设备内存和6.9TB主内存,今年初它在ImageNet测试中的错误率为[5.98%](http://www.valuewalk.com/2015/01/baidu-builds-minwa-supercomputer/)。)
在五年前,计算机在这方面想要超越人类似乎还很遥远,但是最近几个月以来,来自微软、谷歌,以及现在的百度的计算机已经能做的比人更好了。
通过练习,人类能正确识别除了大约 5% 之外的所有 ImageNet 图片。而现在,[微软已经取得了 4.94% 的错误率的成绩](http://blogs.technet.com/b/inside_microsoft_research/archive/2015/02/10/microsoft-researchers-algorithm-sets-imagenet-challenge-milestone.aspx),[谷歌达到了 4.8%](http://arxiv.org/pdf/1502.03167.pdf),百度则表示它将错误率降到了 4.58%!
百度和其它公司通过该测试所用的深度学习算法最近才从学术界飞跃到硅谷,但是它们已经开始在我们的日常生活中产生了影响。
两年前,谷歌使用深度学习来大幅提升 Android 手机的语音识别系统。而百度则在使用一个更大的超级计算机来分析14000小时的语音数据,以提升它的中英文语音识别能力。
“我对整个社区在计算机视觉方面取得的进展感到非常兴奋!” 百度首席科学家吴恩达说,“计算机能如此好的理解图像,不像一年前,它能做更多的事情了!”。
在未来的18个月,百度计划打造一个更大的、计算能力可达 7Pflop/s 的超级计算机!虽然这比不上世界上最顶级的超级计算机,但是依然能够排进全球前十。
深度学习站在了这项发展潮流的巅峰,越来越多的财大气粗的公司们雇佣顶尖的人工智能专家、积累庞大的数据、然后用大量的计算机资源来分析它们。
“有趣的是,处理 ImageNet 图像排名前三的队伍无一例外的都是具有大量计算机资源的大型技术公司,”吴恩达说。他的公司设计这个超级计算机的技术来自中国及其硅谷实验室建造 Minwa 的经验,他补充道。
来自 Facebook 的 Yann LeCun 领导着类似的团队,他说他的公司也在部署大型计算资源,不过他没有提到 Facebook 的计算机系统规模大小。
对于深度计算方面的能力, 谷歌、微软和百度把 ImageNet 测试当做一个“基准测试”,Yann LeCun 说。人们越来越关注更大的数据集和更有挑战性的任务,比如,目标检测和定位等。
---
**更新**(来自:<http://tech.sina.com.cn/it/2015-06-05/doc-icrvvrak2731186.shtml> ):
人工智能测试领域刚刚曝出了第一起作弊丑闻。上月,中国搜索引擎公司百度宣布其图片识别软件在精确度标准化测试中领先于谷歌。但本周二,该公司承诺是通过违反测试规则实现的这一成绩。
负责维护该测试的学术专家表示,这导致百度之前的声明毫无意义。作为该项目的负责人,百度研究员Ren Wu已经公开道歉,并表示该公司正在评估结果。百度也对该软件的技术论文进行了修订。
目前并不清楚此举是个人行为还是整个团队所为,但一家拥有数十亿美元收入的科技公司为什么要在这样一次测试中作弊呢?
百度、谷歌、Facebook等大型科技公司最近几年都投入巨资组建研发团队,专门研究深度学习技术,他们开发的机器学习软件已经在语音和图像识别领域实现了重大进展。这些公司都在不遗余力地聘请这个小领域的顶尖专家,经常会相互挖角。虽然学术界目前的人工智能标准测试数量不多,但却可以帮助这些研究团队与其他团队的成就进行对比,并向公众展开宣传。
百度通过作弊获得了不公平的优势。要进行ImageNet Challenge测试,首先需要用150万张标准图片对其进行训练,然后将代码提交给ImageNet Challenge服务器,针对这些软件之前没有见过的10万张“验证”图片进行测试。
按照规定,每周只能对代码进行两次测试,因为最终的结果包含概率因素。
百度承认,该公司使用多个电子邮件帐号在短短6个月的测试期内对其代码展开了大约200次测试——超过规定测试数量的4倍。
艾伦人工智能学院CEO表示,百度此举相当于购买了多张彩票。“如果你一周购买2张彩票,你大概有一个中奖概率。但如果你一周买200张彩票,概率就会增加。”他说。这样一来,用略有不同的代码展开多次测试,便可帮助研究团队针对一组独特的验证图片进行优化。
在这种测试中,很小的优势也会产生巨大的不同。百度曾经表示,该公司的错误率仅为4.58%,击败了谷歌3月的4.82%。但一些专家指出,这么小的领先差距在这项测试中变得越来越没有意义。但百度和其他公司仍在努力吹嘘自己的结果,甚至不惜违反规则,足以表明在机器学习领域获得领先优势对他们而言的确意义非凡。
| 301 | Moved Permanently | null |
5,437 | 修复 Ubuntu 14.04 从待机中唤醒后鼠标键盘出现僵死情况 | http://itsfoss.com/keyboard-mouse-freeze-suspend/ | 2015-05-13T06:59:00 | [
"Ubuntu"
] | https://linux.cn/article-5437-1.html | ### 问题:
当Ubuntu14.04或14.10从睡眠和待机状态恢复时,鼠标和键盘出现僵死,不能点击也不能输入。解决这种情况是唯一方法就是按关机键强关系统,这不仅非常不便且令人恼火。因为在Ubuntu的默认情况中合上笔记本等同于切换到睡眠模式。
在这篇短文中,我们将学会如何解决Ubuntu14.04和14.10中出现的鼠标僵死问题。
![](/data/attachment/album/201505/12/230127r6gv60e826cgtltl.jpg)
### Ubuntu14.04唤醒后鼠标僵死的解决办法
这个问题的是由内核升级导致的。为何导致这一情况不得而知,但是看起来好像仅需重装输入设备的驱动就能解决了。
```
sudo apt-get install --reinstall xserver-xorg-input-all
```
这则贴士源自一个自由开源读者Dev的提问。快试试这篇贴士,看看是否对你也有效。在一个类似的问题中,你可以[修复Ubuntu登录后无Unity界面、侧边栏和Dash的问题](http://itsfoss.com/how-to-fix-no-unity-no-launcher-no-dash-in-ubuntu-12-10-quick-tip/)。
---
via: <http://itsfoss.com/keyboard-mouse-freeze-suspend/>
作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[martin2011qi](https://github.com/martin2011qi) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,438 | 11个让你吃惊的 Linux 终端命令 | http://linux.about.com/od/commands/tp/11-Linux-Terminal-Commands-That-Will-Rock-Your-World.htm | 2015-05-13T07:28:00 | [
"终端",
"命令"
] | https://linux.cn/article-5438-1.html | 我已经用了十年的Linux了,通过今天这篇文章我将向大家展示一系列的命令、工具和技巧,我希望一开始就有人告诉我这些,而不是曾在我成长道路上绊住我。
![](/data/attachment/album/201505/12/233512pz5y93dzryzy9fur.png)
### 1. 命令行日常系快捷键
如下的快捷方式非常有用,能够极大的提升你的工作效率:
* CTRL + U - 剪切光标前的内容
* CTRL + K - 剪切光标至行末的内容
* CTRL + Y - 粘贴
* CTRL + E - 移动光标到行末
* CTRL + A - 移动光标到行首
* ALT + F - 跳向下一个空格
* ALT + B - 跳回上一个空格
* ALT + Backspace - 删除前一个单词
* CTRL + W - 剪切光标前一个单词
* Shift + Insert - 向终端内粘贴文本
那么为了让上述内容更易理解来看下面的这行命令。
```
sudo apt-get intall programname
```
如你所见,命令中存在拼写错误,为了正常执行需要把“intall”替换成“install”。
想象现在光标正在行末,我们有很多的方法将她退回单词install并替换它。
我可以按两次ALT+B这样光标就会在如下的位置(这里用<sup> 指代光标的位置)。</sup>
```
sudo apt-get^intall programname
```
现在你可以按两下方向键并将“s”插入到install中去了。
如果你想将浏览器中的文本复制到终端,可以使用快捷键"shift + insert"。
### 2. SUDO !!
如果你还不知道这个命令,我觉得你应该好好感谢我,因为如果你不知道的话,那每次你在输入长串命令后看到“permission denied”后一定会痛苦不堪。
* sudo !!
如何使用sudo !!?很简单。试想你刚输入了如下命令:
```
apt-get install ranger
```
一定会出现“Permission denied”,除非你已经登录了足够高权限的账户。
sudo !! 就会用 sudo 的形式运行上一条命令。所以上一条命令就变成了这样:
```
sudo apt-get install ranger
```
如果你不知道什么是sudo,[戳这里](http://linux.about.com/cs/linux101/g/sudo.htm)。
(**警告!主页君强烈反对使用这个命令,因为如果万一上个命令存在一些笔误或者你搞错了哪条是上一条命令,那么有可能带来的后果是灾难性的!所以,千万不要执行这条命令!千万不要执行这条命令!千万不要执行这条命令!重要的事情重复三遍。**)
### 3. 暂停并在后台运行命令
我曾经写过一篇[如何在终端后台运行命令的指南](http://linux.about.com/od/commands/fl/How-To-Run-Linux-Programs-From-The-Terminal-In-Background-Mode.htm)。
* CTRL + Z - 暂停应用程序
* fg - 重新将程序唤到前台
如何使用这个技巧呢?
试想你正用nano编辑一个文件:
```
sudo nano abc.txt
```
文件编辑到一半你意识到你需要马上在终端输入些命令,但是nano在前台运行让你不能输入。
你可能觉得唯一的方法就是保存文件,退出 nano,运行命令以后在重新打开nano。
其实你只要按CTRL + Z,前台的命令就会暂停,画面就切回到命令行了。然后你就能运行你想要运行命令,等命令运行完后在终端窗口输入“fg”就可以回到先前暂停的任务。
有一个尝试非常有趣就是用nano打开文件,输入一些东西然后暂停会话。再用nano打开另一个文件,输入一些什么后再暂停会话。如果你输入“fg”你将回到第二个用nano打开的文件。只有退出nano再输入“fg”,你才会回到第一个用nano打开的文件。
### 4. 使用nohup在登出SSH会话后仍运行命令
如果你用ssh登录别的机器时,[nohup命令](http://linux.about.com/library/cmd/blcmdl1_nohup.htm)真的非常有用。
那么怎么使用nohup呢?
想象一下你使用ssh远程登录到另一台电脑上,你运行了一条非常耗时的命令然后退出了ssh会话,不过命令仍在执行。而nohup可以将这一场景变成现实。
举个例子,因为测试的需要,我用我的[树莓派](http://linux.about.com/od/mobiledevicesother/a/Raspberry-Pi-Computer-Running-Linux.htm)来下载发行版。我绝对不会给我的树莓派外接显示器、键盘或鼠标。
一般我总是用[SSH](http://linux.about.com/od/commands/l/blcmdl1_ssh.htm)从笔记本电脑连接到树莓派。如果我在不用nohup的情况下使用树莓派下载大型文件,那我就必须等待到下载完成后,才能登出ssh会话关掉笔记本。可如果是这样,那我为什么要使用树莓派下文件呢?
使用nohup的方法也很简单,只需如下例中在nohup后输入要执行的命令即可:
```
nohup wget http://mirror.is.co.za/mirrors/linuxmint.com/iso//stable/17.1/linuxmint-17.1-cinnamon-64bit.iso &
```
### 5. ‘在(at)’特定的时间运行Linux命令
‘nohup’命令在你用SSH连接到服务器,并在上面保持执行SSH登出前任务的时候十分有用。
想一下如果你需要在特定的时间执行相同的命令,这种情况该怎么办呢?
命令‘at’就能妥善解决这一情况。以下是‘at’使用示例。
```
at 10:38 PM Fri
at> cowsay 'hello'
at> CTRL + D
```
上面的命令能在周五下午10时38分运行程序[cowsay](http://linux.about.com/cs/linux101/g/cowsay.htm)。
使用的语法就是‘at’后追加日期时间。当at>提示符出现后就可以输入你想在那个时间运行的命令了。
CTRL + D 返回终端。
还有许多日期和时间的格式,都需要你好好翻一翻‘at’的man手册来找到更多的使用方式。
### 6. Man手册
Man手册会为你列出命令和参数的使用大纲,教你如何使用她们。Man手册看起来沉闷呆板。(我思忖她们也不是被设计来娱乐我们的)。
不过这不代表你不能做些什么来使她们变得漂亮些。
```
export PAGER=most
```
你需要安装 ‘most’;她会使你的你的man手册的色彩更加绚丽。
你可以用以下命令给man手册设定指定的行长:
```
export MANWIDTH=80
```
最后,如果你有一个可用的浏览器,你可以使用-H在默认浏览器中打开任意的man页。
```
man -H <command>
```
注意啦,以上的命令只有在你将默认的浏览器设置到环境变量$BROWSER中了之后才效果哟。
### 7. 使用htop查看和管理进程
你用哪个命令找出电脑上正在运行的进程的呢?我敢打赌是‘[ps](http://linux.about.com/od/commands/l/blcmdl1_ps.htm)’并在其后加不同的参数来得到你所想要的不同输出。
安装‘[htop](http://www.linux.com/community/blogs/133-general-linux/745323-5-commands-to-check-memory-usage-on-linux)’吧!绝对让你相见恨晚。
htop在终端中将进程以列表的方式呈现,有点类似于Windows中的任务管理器。你可以使用功能键的组合来切换排列的方式和展示出来的项。你也可以在htop中直接杀死进程。
在终端中简单的输入htop即可运行。
```
htop
```
### 8. 使用ranger浏览文件系统
如果说htop是命令行进程控制的好帮手,那么[ranger](http://ranger.nongnu.org/)就是命令行浏览文件系统的好帮手。
你在用之前可能需要先安装,不过一旦安装了以后就可以在命令行输入以下命令启动她:
```
ranger
```
在命令行窗口中ranger和一些别的文件管理器很像,但是相比上下结构布局,她是左右结构的,这意味着你按左方向键你将前进到上一个文件夹,而右方向键则会切换到下一个。
在使用前ranger的man手册还是值得一读的,这样你就可以用快捷键操作ranger了。
### 9. 取消关机
无论是在命令行还是图形用户界面[关机](http://linux.about.com/od/commands/l/blcmdl8_shutdow.htm)后,才发现自己不是真的想要关机。
```
shutdown -c
```
需要注意的是,如果关机已经开始则有可能来不及停止关机。
以下是另一个可以尝试命令:
* [pkill](http://linux.about.com/library/cmd/blcmdl1_pkill.htm) shutdown
### 10. 杀死挂起进程的简单方法
想象一下,你正在运行的应用程序不明原因的僵死了。
你可以使用‘ps -ef’来找到该进程后杀掉或者使用‘htop’。
有一个更快、更容易的命令叫做[xkill](http://linux.about.com/od/funnymanpages/a/funman_xkill.htm)。
简单的在终端中输入以下命令并在窗口中点击你想杀死的应用程序。
```
xkill
```
那如果整个系统挂掉了怎么办呢?
按住键盘上的‘alt’和‘sysrq’不放,然后慢慢输入以下键:
* [REISUB](http://blog.kember.net/articles/reisub-the-gentle-linux-restart/)
这样不按电源键你的计算机也能重启了。
### 11. 下载Youtube视频
一般来说我们大多数人都喜欢看Youtube的视频,也会通过钟爱的播放器播放Youtube的流媒体。
如果你需要离线一段时间(比如:从苏格兰南部坐飞机到英格兰南部旅游的这段时间)那么你可能希望下载一些视频到存储设备中,到闲暇时观看。
你所要做的就是从包管理器中安装youtube-dl。
你可以用以下命令使用youtube-dl:
```
youtube-dl url-to-video
```
你可以在Youtubu视频页面点击分享链接得到视频的url。只要简单的复制链接在粘帖到命令行就行了(要用shift + insert快捷键哟)。
### 总结
希望你在这篇文章中得到帮助,并且在这11条中找到至少一条让你惊叹“原来可以这样”的技巧。
---
via: <http://linux.about.com/od/commands/tp/11-Linux-Terminal-Commands-That-Will-Rock-Your-World.htm>
作者:[Gary Newell](http://linux.about.com/bio/Gary-Newell-132058.htm) 译者:[martin2011qi](https://github.com/martin2011qi) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,439 | 使用Observium来监控你的网络和服务器 | http://www.unixmen.com/monitoring-network-servers-observium/ | 2015-05-13T10:31:00 | [
"Observium",
"监控"
] | https://linux.cn/article-5439-1.html | ### 简介
在监控你的服务器、交换机或者设备时遇到过问题吗?**Observium** 可以满足你的需求。这是一个免费的监控系统,它可以帮助你远程监控你的服务器。它是一个由PHP编写的基于自动发现 SNMP 的网络监控平台,支持非常广泛的网络硬件和操作系统,包括 Cisco、Windows、Linux、HP、NetApp 等等。在此我会给出在 Ubuntu 12.04 上一步步地设置一个 **Observium** 服务器的介绍。
![](/data/attachment/album/201505/13/063454ojfjjz99fh7zzfqh.png)
目前有两种不同的 **observium** 版本。
* Observium 社区版本是一个在 QPL 开源许可证下的免费工具,这个版本是对于较小部署的最好解决方案。该版本每6个月进行一次安全性更新。
* 第2个版本是 Observium 专业版,该版本采用基于 SVN 的发布机制。 会得到每日安全性更新。 该工具适用于服务提供商和企业级部署。
更多信息可以通过其[官网](http://www.observium.org/)获得。
### 系统需求
要安装 **Observium**, 需要具有一个最新安装的服务器。**Observium** 是在 Ubuntu LTS 和 Debian 系统上进行开发的,所以推荐在 Ubuntu 或 Debian 上安装 **Observium**,因为可能在别的平台上会有一些小问题。
该文章会引导你在 Ubuntu 12.04 上安装 **Observium**。对于小型的 **Observium** 安装,建议使用 256MB 内存和双核处理器的配置。
### 安装需求
在安装 **Observuim** 之前,你需要确认安装所有的依赖关系包。
首先,使用下面的命令更新你的服务器:
```
sudo apt-get update
```
然后你需要安装下列运行 Observuim 所需的全部软件包。
Observium 需要使用下面所列出的软件才能正确的运行:
* LAMP 服务器
* fping
* Net-SNMP 5.4+
* RRDtool 1.3+
* Graphviz
对于可选特性的要求:
* Ipmitool - 仅在当你想要获取服务器上的 IPMI(Intelligent Platform Management Interface 智能平台管理接口)基板控制器时。
* Libvirt-bin - 仅在当你想要使用 libvirt 进行远程 VM 主机监控时。
sudo apt-get install libapache2-mod-php5 php5-cli php5-mysql php5-gd php5-mcrypt php5-json php-pear snmp fping mysql-server mysql-client python-mysqldb rrdtool subversion whois mtr-tiny ipmitool graphviz imagemagick libvirt ipmitool
### 为 Observium 创建 MySQL 数据库及其用户。
现在你需要登录到 MySQL 中并为 **Observium** 创建数据库:
```
mysql -u root -p
```
在用户验证成功之后,你需要按照下面的命令创建该数据库。
```
CREATE DATABASE observium;
```
数据库名为 **Observium**,稍后你会需要这个信息。
现在你需要创建数据库管理员用户。
```
CREATE USER observiumadmin@localhost IDENTIFIED BY 'observiumpassword';
```
接下来,你需要给该管理员用户相应的权限来管理创建的数据库。
```
GRANT ALL PRIVILEGES ON observium.* TO observiumadmin@localhost;
```
你需要将权限信息写回到磁盘中来激活新的 MySQL 用户:
```
FLUSH PRIVILEGES;
exit
```
### 下载并安装 Observium
现在我们的系统已经准备好了, 可以开始Observium的安装了。
第一步,创建 Observium 将要使用的文件目录:
```
mkdir -p /opt/observium && cd /opt
```
按本教程的目的,我们将会使用 Observium 的社区/开源版本。使用下面的命令下载并解压:
```
wget http://www.observium.org/observium-community-latest.tar.gz
tar zxvf observium-community-latest.tar.gz
```
现在进入到 Observium 目录。
```
cd observium
```
将默认的配置文件 '**config.php.default**' 复制到 '**config.php**',并将数据库配置选项填充到配置文件中:
```
cp config.php.default config.php
nano config.php
```
---
```
/ Database config
$config['db_host'] = 'localhost';
$config['db_user'] = 'observiumadmin';
$config['db_pass'] = 'observiumpassword';
$config['db_name'] = 'observium';
```
现在为 MySQL 数据库设置默认的数据库模式:
```
php includes/update/update.php
```
现在你需要创建一个文件目录来存储 rrd 文件,并修改其权限以便让 apache 能将写入到文件中。
```
mkdir rrd
chown apache:apache rrd
```
为了在出现问题时排错,你需要创建日志文件。
```
mkdir -p /var/log/observium
chown apache:apache /var/log/observium
```
现在你需要为 Observium 创建虚拟主机配置。
```
<VirtualHost *:80>
DocumentRoot /opt/observium/html/
ServerName observium.domain.com
CustomLog /var/log/observium/access_log combined
ErrorLog /var/log/observium/error_log
<Directory "/opt/observium/html/">
AllowOverride All
Options FollowSymLinks MultiViews
</Directory>
</VirtualHost>
```
下一步你需要让你的 Apache 服务器的 rewrite (重写)功能生效。
为了让 'mod\_rewrite' 生效,输入以下命令:
```
sudo a2enmod rewrite
```
该模块在下一次 Apache 服务重启之后就会生效。
```
sudo service apache2 restart
```
### 配置 Observium
在登入 Web 界面之前,你需要为 Observium 创建一个管理员账户(级别10)。
```
# cd /opt/observium
# ./adduser.php admin adminpassword 10
User admin added successfully.
```
下一步为发现和探寻任务设置一个 cron 任务,创建一个新的文件 ‘**/etc/cron.d/observium**’ 并在其中添加以下的内容。
```
33 */6 * * * root /opt/observium/discovery.php -h all >> /dev/null 2>&1
*/5 * * * * root /opt/observium/discovery.php -h new >> /dev/null 2>&1
*/5 * * * * root /opt/observium/poller-wrapper.py 1 >> /dev/null 2>&1
```
重载 cron 进程来增加新的任务。
```
# /etc/init.d/cron reload
```
好啦,你已经完成了 Observium 服务器的安装拉! 使用你的浏览器登录到 **http://<Server IP>**,然后上路吧。
![](/data/attachment/album/201505/13/063455b9rzgwk7rwlw7w7m.png)
尽情享受吧!
---
via: <http://www.unixmen.com/monitoring-network-servers-observium/>
作者:[anismaj](http://www.unixmen.com/author/anis/) 译者:[theo-l](http://github.com/theo-l) 校对:[wxy](http://github.com/wxy)
本文由 [LCTT](http://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,440 | Linux有问必答:如何在命令行下压缩JPEG图像 | http://ask.xmodulo.com/compress-jpeg-images-command-line-linux.html | 2015-05-13T13:41:00 | [
"jpegoptim",
"图片"
] | /article-5440-1.html |
>
> **问题**: 我有许多数码照相机拍出来的照片。我想在上传到Dropbox之前,优化和压缩下JPEG图片。有没有什么简单的方法压缩JPEG图片并不损耗他们的质量?
>
>
>
如今拍照设备(如智能手机、数码相机)拍出来的图片分辨率越来越大。甚至3630万像素的Nikon D800已经冲入市场,并且这个趋势根本停不下来。如今的拍照设备不断地提高着照片分辨率,使得我们不得不压缩后,再上传到有储存限制、带宽限制的云。
事实上,这里有一个非常简单的方法压缩JPEG图像。一个叫“jpegoptim”命令行工具可以帮助你“无损”美化JPEG图像,让你可以压缩JPEG图片而不至于牺牲他们的质量。万一你的存储空间和带宽预算真的很少,jpegoptim也支持“有损”压缩来调整图像大小。
如果要压缩PNG图像,参考[这个指南](http://xmodulo.com/how-to-compress-png-files-on-linux.html)的例子。
### 安装jpegoptim
Ubuntu, Debian 或 Linux Mint:
```
$ sudo apt-get install jpegoptim
```
Fedora:
```
$ sudo yum install jpegoptim
```
CentOS/RHEL安装,先开启[EPEL库](/article-2324-1.html),然后运行下列命令:
```
$ sudo yum install jpegoptim
```
### 无损压缩jpeg图像
为了无损地压缩一副JPG图片,使用:
```
$ jpegoptim photo.jpg
photo.jpg 2048x1536 24bit N ICC JFIF [OK] 882178 --> 821064 bytes (6.93%), optimized.
```
注意,原始图像会被压缩后图像覆盖。
如果jpegoptim不能无损美化图像,将不会覆盖它:
```
$ jpegoptim -v photo.jpg
photo.jpg 2048x1536 24bit N ICC JFIF [OK] 821064 --> 821064 bytes (0.00%), skipped.
```
如果你想保护原始图片,使用"-d"参数指明保存目录
```
$ jpegoptim -d ./compressed photo.jpg
```
这样,压缩的图片将会保存在./compressed目录(以同样的输入文件名)
如果你想要保护文件的创建修改时间,使用"-p"参数。这样压缩后的图片会得到与原始图片相同的日期时间。
```
$ jpegoptim -d ./compressed -p photo.jpg
```
如果你只是想看看无损压缩率而不是真的想压缩它们,使用"-n"参数来模拟压缩,然后它会显示出压缩率。
```
$ jpegoptim -n photo.jpg
```
### 有损压缩JPG图像
万一你真的需要要保存在云空间上,你还可以使用有损压缩JPG图片。
这种情况下,使用"-m<质量>"选项,质量数范围0到100。(0是最好质量,100是最差质量)
例如,用50%质量压缩图片:
```
$ jpegoptim -m50 photo.jpg
photo.jpg 2048x1536 24bit N ICC JFIF [OK] 882178 --> 301780 bytes (65.79%), optimized.
```
在牺牲质量的基础上,将会得到一个更小的图片。
![](/data/attachment/album/201505/13/064505nhr131eqv3v3047p.jpg)
### 一次压缩多张JPEG图像
最常见的情况是需要压缩一个目录下的多张JPEG图像文件。为了应付这种情况,你可以使用接下来的脚本。
```
#!/bin/sh
# 压缩当前目录下所有*.jpg文件
# 保存在./compressed目录
# 并拥有与原始文件同样的修改日期
for i in *.jpg; do jpegoptim -d ./compressed -p "$i"; done
```
---
via: <http://ask.xmodulo.com/compress-jpeg-images-command-line-linux.html>
作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[VicYu/Vic020](https://github.com/Vic020) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /compress-jpeg-images-command-line-linux.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c5000>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)")) | null |
5,441 | 如何在Linux中用命令行工具管理KVM虚拟环境 | http://www.tecmint.com/kvm-management-tools-to-manage-virtual-machines/ | 2015-05-13T15:12:00 | [
"KVM",
"virsh",
"虚拟机"
] | https://linux.cn/article-5441-1.html | 在我们[KVM系列专题](http://www.tecmint.com/install-and-configure-kvm-in-linux/)的第四部分,我们将会一起讨论下在命令行界面下来管理KVM环境。我们分别用‘virt-install’和virsh命令行工具来创建并配置虚拟机和存储池,用qemu-img命令行工具来创建并管理磁盘映像。
![KVM Management in Linux](/data/attachment/album/201505/13/071411m9nu9l9xcnw7kumm.jpg)
*Linux系统的KVM管理*
在这篇文章里没有什么新的概念,我们只是用命令行工具重复之前所做过的事情,也没有什么前提条件,都是相同的过程,之前的文章我们都讨论过。
### 第一步: 配置存储池
Virsh命令行工具是一款管理virsh客户域的用户界面。virsh程序能在命令行中运行所给的命令以及它的参数。
本节中,我们要用它给我们的KVM环境创建存储池。想知道关于这个工具的更多信息,用以下这条命令。
```
# man virsh
```
**1. 用virsh带pool-define-as的命令来定义新的存储池,你需要指定名字、类型和类型参数。**
本例中,我们将名字取为Spool1,类型为目录。默认情况下你可以提供五个参数给该类型:
* source-host
* source-path
* source-dev
* source-name
* target
对于目录类型,我们需要用最后一个参数“target”来指定存储池的路径,其它参数项我们可以用“-”来填充。
```
# virsh pool-define-as Spool1 dir - - - - "/mnt/personal-data/SPool1/"
```
![Create New Storage Pool](/data/attachment/album/201505/13/071412irlmi3cij6l6dz65.png)
*创建新存储池*
**2. 查看环境中我们所有的存储池,用以下命令。**
```
# virsh pool-list --all
```
![List All Storage Pools](/data/attachment/album/201505/13/071412rwp2uibii1ukdq7p.png)
*列出所有存储池*
**3. 现在我们来构造存储池了,用以下命令来构造我们刚才定义的存储池。**
```
# virsh pool-build Spool1
```
![Build Storage Pool](/data/attachment/album/201505/13/071412j2vzvv984bpxx4vs.png)
*构造存储池*
**4. 用带pool-start参数的virsh命令来激活并启动我们刚才创建并构造完成的存储池。**
```
# virsh pool-start Spool1
```
![Active Storage Pool](/data/attachment/album/201505/13/071413hqiw3of3o7a32q3q.png)
*激活存储池*
**5. 查看环境中存储池的状态,用以下命令。**
```
# virsh pool-list --all
```
![Check Storage Pool Status](/data/attachment/album/201505/13/071413gzi3md3dkguq2ggb.png)
*查看存储池状态*
你会发现Spool1的状态变成了已激活。
**6. 对Spool1进行配置,让它每次都能被libvirtd服务自启动。**
```
# virsh pool-autostart Spool1
```
![Configure KVM Storage Pool](/data/attachment/album/201505/13/071414zvlelhe7vlhyj133.png)
*配置KVM存储池*
**7. 最后来看看我们新的存储池的信息吧。**
```
# virsh pool-info Spool1
```
![Check KVM Storage Pool Information](/data/attachment/album/201505/13/071414s2lcm8felftm9izq.png)
*查看KVM存储池信息*
恭喜你,Spool1已经准备好待命,接下来我们试着创建存储卷来使用它。
### 第二步: 配置存储卷/磁盘映像
现在轮到磁盘映像了,用qemu-img命令在Spool1中创建一个新磁盘映像。获取更多细节信息,可以查看man手册。
```
# man qemu-img
```
**8. 我们应该在qemu-img命令之后指定“create, check,…”等等操作、磁盘映像格式、你想要创建的磁盘映像的路径和大小。**
```
# qemu-img create -f raw /mnt/personal-data/SPool1/SVol1.img 10G
```
![Create Storage Volume](/data/attachment/album/201505/13/071414eclch3pxt2z5hagg.png)
*创建存储卷*
**9. 通过使用带info的qemu-img命令,你可以获取到你的新磁盘映像的一些信息。**
![Check Storage Volume Information](/data/attachment/album/201505/13/071415hmp6fpr69070f96p.png)
*查看存储卷信息*
**警告**: 不要用qemu-img命令来修改被运行中的虚拟机或任何其它进程所正在使用的映像,那样映像会被破坏。
现在是时候来创建虚拟机了。
### 第三步: 创建虚拟机
**10. 现在到最后一个环节了,在最后一步中,我们将用virt-install命令来创建虚拟机。virt-install是一个用来创建新的KVM虚拟机命令行工具,它使用“libvirt”管理程序库。想获取更多细节,同样可以查看man手册。**
```
# man virt-install
```
要创建新的KVM虚拟机,你需要用到带以下所有信息的命令。
* Name: 虚拟机的名字。
* Disk Location: 磁盘映像的位置。
* Graphics : 怎样连接VM,通常是SPICE。
* vcpu : 虚拟CPU的数量。
* ram : 以兆字节计算的已分配内存大小。
* Location : 指定安装源路径。
* Network : 指定虚拟网络,通常是virbr0网桥。
```
virt-install --name=rhel7 --disk path=/mnt/personal-data/SPool1/SVol1.img --graphics spice --vcpu=1 --ram=1024 --location=/run/media/dos/9e6f605a-f502-4e98-826e-e6376caea288/rhel-server-7.0-x86_64-dvd.iso --network bridge=virbr0
```
![Create New Virtual Machine](/data/attachment/album/201505/13/071415siniag9jub009aw4.png)
*创建新的虚拟机*
**11. 你会看到弹出一个virt-vierwer窗口,像是在通过它在与虚拟机通信。**
![Booting Virtual Machine](/data/attachment/album/201505/13/071416o79n4b654hov7bav.jpg)
*虚拟机启动程式*
![Installation of Virtual Machine](/data/attachment/album/201505/13/071416c5fsidzcps0jwpf5.jpg)
*虚拟机安装过程*
### 结论
以上就是我们KVM教程的最后一部分了,当然我们还没有完全覆盖到全部,我们只是打了个擦边球,所以现在该轮到你来好好地利用这些丰富的资源来做自己想做的事了。
* [KVM Getting Started Guide](https://access.redhat.com/site/documentation/en-US/Red_Hat_Enterprise_Linux/7/html/Virtualization_Getting_Started_Guide/index.html)
* [KVM Virtualization Deployment and Administration Guide](https://access.redhat.com/site/documentation/en-US/Red_Hat_Enterprise_Linux/7/html/Virtualization_Deployment_and_Administration_Guide/index.html)
---
via: <http://www.tecmint.com/kvm-management-tools-to-manage-virtual-machines/>
作者:[Mohammad Dosoukey](http://www.tecmint.com/author/dos2009/) 译者:[ZTinoZ](https://github.com/ZTinoZ) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,443 | 建立你自己的 CA 服务:OpenSSL 命令行 CA 操作快速指南 | https://raymii.org/s/tutorials/OpenSSL_command_line_Root_and_Intermediate_CA_including_OCSP_CRL%20and_revocation.html | 2015-05-14T08:19:00 | [
"CA",
"证书"
] | https://linux.cn/article-5443-1.html | 这些是关于使用 OpenSSL 生成证书授权(CA)、中间证书授权和末端证书的速记随笔,内容包括 OCSP、CRL 和 CA 颁发者信息,以及指定颁发和有效期限等。
我们将建立我们自己的根 CA,我们将使用根 CA 来生成一个中间 CA 的例子,我们将使用中间 CA 来签署末端用户证书。
![](/data/attachment/album/201505/14/002424qm1ntrmmr1m15azf.jpg)
### 根 CA
创建根 CA 授权目录并切换到该目录:
```
mkdir ~/SSLCA/root/
cd ~/SSLCA/root/
```
为我们的根 CA 生成一个8192位长的 SHA-256 RSA 密钥:
```
openssl genrsa -aes256 -out rootca.key 8192
```
样例输出:
```
Generating RSA private key, 8192 bit long modulus
.........++
....................................................................................................................++
e is 65537 (0x10001)
```
如果你想要用密码保护该密钥,请添加 `-aes256` 选项。
创建自签名根 CA 证书 `ca.crt`;你需要为你的根 CA 提供一个身份:
```
openssl req -sha256 -new -x509 -days 1826 -key rootca.key -out rootca.crt
```
样例输出:
```
You are about to be asked to enter information that will be incorporated
into your certificate request.
What you are about to enter is what is called a Distinguished Name or a DN.
There are quite a few fields but you can leave some blank
For some fields there will be a default value,
If you enter '.', the field will be left blank.
-----
Country Name (2 letter code) [AU]:NL
State or Province Name (full name) [Some-State]:Zuid Holland
Locality Name (eg, city) []:Rotterdam
Organization Name (eg, company) [Internet Widgits Pty Ltd]:Sparkling Network
Organizational Unit Name (eg, section) []:Sparkling CA
Common Name (e.g. server FQDN or YOUR name) []:Sparkling Root CA
Email Address []:
```
创建一个存储 CA 序列的文件:
```
touch certindex
echo 1000 > certserial
echo 1000 > crlnumber
```
放置 CA 配置文件,该文件持有 CRL 和 OCSP 末端的存根。
```
# vim ca.conf
[ ca ]
default_ca = myca
[ crl_ext ]
issuerAltName=issuer:copy
authorityKeyIdentifier=keyid:always
[ myca ]
dir = ./
new_certs_dir = $dir
unique_subject = no
certificate = $dir/rootca.crt
database = $dir/certindex
private_key = $dir/rootca.key
serial = $dir/certserial
default_days = 730
default_md = sha1
policy = myca_policy
x509_extensions = myca_extensions
crlnumber = $dir/crlnumber
default_crl_days = 730
[ myca_policy ]
commonName = supplied
stateOrProvinceName = supplied
countryName = optional
emailAddress = optional
organizationName = supplied
organizationalUnitName = optional
[ myca_extensions ]
basicConstraints = critical,CA:TRUE
keyUsage = critical,any
subjectKeyIdentifier = hash
authorityKeyIdentifier = keyid:always,issuer
keyUsage = digitalSignature,keyEncipherment,cRLSign,keyCertSign
extendedKeyUsage = serverAuth
crlDistributionPoints = @crl_section
subjectAltName = @alt_names
authorityInfoAccess = @ocsp_section
[ v3_ca ]
basicConstraints = critical,CA:TRUE,pathlen:0
keyUsage = critical,any
subjectKeyIdentifier = hash
authorityKeyIdentifier = keyid:always,issuer
keyUsage = digitalSignature,keyEncipherment,cRLSign,keyCertSign
extendedKeyUsage = serverAuth
crlDistributionPoints = @crl_section
subjectAltName = @alt_names
authorityInfoAccess = @ocsp_section
[alt_names]
DNS.0 = Sparkling Intermidiate CA 1
DNS.1 = Sparkling CA Intermidiate 1
[crl_section]
URI.0 = http://pki.sparklingca.com/SparklingRoot.crl
URI.1 = http://pki.backup.com/SparklingRoot.crl
[ocsp_section]
caIssuers;URI.0 = http://pki.sparklingca.com/SparklingRoot.crt
caIssuers;URI.1 = http://pki.backup.com/SparklingRoot.crt
OCSP;URI.0 = http://pki.sparklingca.com/ocsp/
OCSP;URI.1 = http://pki.backup.com/ocsp/
```
如果你需要设置某个特定的证书生效/过期日期,请添加以下内容到`[myca]`:
```
# format: YYYYMMDDHHMMSS
default_enddate = 20191222035911
default_startdate = 20181222035911
```
### 创建中间 CA
生成中间 CA (名为 intermediate1)的私钥:
```
openssl genrsa -out intermediate1.key 4096
```
生成中间 CA 的 CSR:
```
openssl req -new -sha256 -key intermediate1.key -out intermediate1.csr
```
样例输出:
```
You are about to be asked to enter information that will be incorporated
into your certificate request.
What you are about to enter is what is called a Distinguished Name or a DN.
There are quite a few fields but you can leave some blank
For some fields there will be a default value,
If you enter '.', the field will be left blank.
-----
Country Name (2 letter code) [AU]:NL
State or Province Name (full name) [Some-State]:Zuid Holland
Locality Name (eg, city) []:Rotterdam
Organization Name (eg, company) [Internet Widgits Pty Ltd]:Sparkling Network
Organizational Unit Name (eg, section) []:Sparkling CA
Common Name (e.g. server FQDN or YOUR name) []:Sparkling Intermediate CA
Email Address []:
Please enter the following 'extra' attributes
to be sent with your certificate request
A challenge password []:
An optional company name []:
```
确保中间 CA 的主体(CN)和根 CA 不同。
用根 CA 签署中间 CA 的 CSR:
```
openssl ca -batch -config ca.conf -notext -in intermediate1.csr -out intermediate1.crt
```
样例输出:
```
Using configuration from ca.conf
Check that the request matches the signature
Signature ok
The Subject's Distinguished Name is as follows
countryName :PRINTABLE:'NL'
stateOrProvinceName :ASN.1 12:'Zuid Holland'
localityName :ASN.1 12:'Rotterdam'
organizationName :ASN.1 12:'Sparkling Network'
organizationalUnitName:ASN.1 12:'Sparkling CA'
commonName :ASN.1 12:'Sparkling Intermediate CA'
Certificate is to be certified until Mar 30 15:07:43 2017 GMT (730 days)
Write out database with 1 new entries
Data Base Updated
```
生成 CRL(同时采用 PEM 和 DER 格式):
```
openssl ca -config ca.conf -gencrl -keyfile rootca.key -cert rootca.crt -out rootca.crl.pem
openssl crl -inform PEM -in rootca.crl.pem -outform DER -out rootca.crl
```
每次使用该 CA 签署证书后,请生成 CRL。
如果你需要撤销该中间证书:
```
openssl ca -config ca.conf -revoke intermediate1.crt -keyfile rootca.key -cert rootca.crt
```
### 配置中间 CA
为该中间 CA 创建一个新文件夹,然后进入该文件夹:
```
mkdir ~/SSLCA/intermediate1/
cd ~/SSLCA/intermediate1/
```
从根 CA 拷贝中间证书和密钥:
```
cp ~/SSLCA/root/intermediate1.key ./
cp ~/SSLCA/root/intermediate1.crt ./
```
创建索引文件:
```
touch certindex
echo 1000 > certserial
echo 1000 > crlnumber
```
创建一个新的 `ca.conf` 文件:
```
# vim ca.conf
[ ca ]
default_ca = myca
[ crl_ext ]
issuerAltName=issuer:copy
authorityKeyIdentifier=keyid:always
[ myca ]
dir = ./
new_certs_dir = $dir
unique_subject = no
certificate = $dir/intermediate1.crt
database = $dir/certindex
private_key = $dir/intermediate1.key
serial = $dir/certserial
default_days = 365
default_md = sha1
policy = myca_policy
x509_extensions = myca_extensions
crlnumber = $dir/crlnumber
default_crl_days = 365
[ myca_policy ]
commonName = supplied
stateOrProvinceName = supplied
countryName = optional
emailAddress = optional
organizationName = supplied
organizationalUnitName = optional
[ myca_extensions ]
basicConstraints = critical,CA:FALSE
keyUsage = critical,any
subjectKeyIdentifier = hash
authorityKeyIdentifier = keyid:always,issuer
keyUsage = digitalSignature,keyEncipherment
extendedKeyUsage = serverAuth
crlDistributionPoints = @crl_section
subjectAltName = @alt_names
authorityInfoAccess = @ocsp_section
[alt_names]
DNS.0 = example.com
DNS.1 = example.org
[crl_section]
URI.0 = http://pki.sparklingca.com/SparklingIntermidiate1.crl
URI.1 = http://pki.backup.com/SparklingIntermidiate1.crl
[ocsp_section]
caIssuers;URI.0 = http://pki.sparklingca.com/SparklingIntermediate1.crt
caIssuers;URI.1 = http://pki.backup.com/SparklingIntermediate1.crt
OCSP;URI.0 = http://pki.sparklingca.com/ocsp/
OCSP;URI.1 = http://pki.backup.com/ocsp/
```
修改 `[alt_names]` 部分,添加你需要的主体备选名。如果你不需要主体备选名,请移除该部分包括`subjectAltName = @alt_names`的行。
如果你需要设置一个指定的生效/到期日期,请添加以下内容到 `[myca]`:
```
# format: YYYYMMDDHHMMSS
default_enddate = 20191222035911
default_startdate = 20181222035911
```
生成一个空白 CRL(同时以 PEM 和 DER 格式):
```
openssl ca -config ca.conf -gencrl -keyfile rootca.key -cert rootca.crt -out rootca.crl.pem
openssl crl -inform PEM -in rootca.crl.pem -outform DER -out rootca.crl
```
### 生成末端用户证书
我们使用这个新的中间 CA 来生成一个末端用户证书,请重复以下操作来使用该 CA 为每个用户签署。
```
mkdir enduser-certs
```
生成末端用户的私钥:
```
openssl genrsa -out enduser-certs/enduser-example.com.key 4096
```
生成末端用户的 CSR:
```
openssl req -new -sha256 -key enduser-certs/enduser-example.com.key -out enduser-certs/enduser-example.com.csr
```
样例输出:
```
You are about to be asked to enter information that will be incorporated
into your certificate request.
What you are about to enter is what is called a Distinguished Name or a DN.
There are quite a few fields but you can leave some blank
For some fields there will be a default value,
If you enter '.', the field will be left blank.
-----
Country Name (2 letter code) [AU]:NL
State or Province Name (full name) [Some-State]:Noord Holland
Locality Name (eg, city) []:Amsterdam
Organization Name (eg, company) [Internet Widgits Pty Ltd]:Example Inc
Organizational Unit Name (eg, section) []:IT Dept
Common Name (e.g. server FQDN or YOUR name) []:example.com
Email Address []:
Please enter the following 'extra' attributes
to be sent with your certificate request
A challenge password []:
An optional company name []:
```
使用中间 CA 签署末端用户的 CSR:
```
openssl ca -batch -config ca.conf -notext -in enduser-certs/enduser-example.com.csr -out enduser-certs/enduser-example.com.crt
```
样例输出:
```
Using configuration from ca.conf
Check that the request matches the signature
Signature ok
The Subject's Distinguished Name is as follows
countryName :PRINTABLE:'NL'
stateOrProvinceName :ASN.1 12:'Noord Holland'
localityName :ASN.1 12:'Amsterdam'
organizationName :ASN.1 12:'Example Inc'
organizationalUnitName:ASN.1 12:'IT Dept'
commonName :ASN.1 12:'example.com'
Certificate is to be certified until Mar 30 15:18:26 2016 GMT (365 days)
Write out database with 1 new entries
Data Base Updated
```
生成 CRL(同时以 PEM 和 DER 格式):
```
openssl ca -config ca.conf -gencrl -keyfile intermediate1.key -cert intermediate1.crt -out intermediate1.crl.pem
openssl crl -inform PEM -in intermediate1.crl.pem -outform DER -out intermediate1.crl
```
每次你使用该 CA 签署证书后,都需要生成 CRL。
如果你需要撤销该末端用户证书:
```
openssl ca -config ca.conf -revoke enduser-certs/enduser-example.com.crt -keyfile intermediate1.key -cert intermediate1.crt
```
样例输出:
```
Using configuration from ca.conf
Revoking Certificate 1000.
Data Base Updated
```
通过连接根证书和中间证书来创建证书链文件。
```
cat ../root/rootca.crt intermediate1.crt > enduser-certs/enduser-example.com.chain
```
发送以下文件给末端用户:
```
enduser-example.com.crt
enduser-example.com.key
enduser-example.com.chain
```
你也可以让末端用户提供他们自己的 CSR,而只发送给他们这个 .crt 文件。不要把它从服务器删除,否则你就不能撤销了。
### 校验证书
你可以对证书链使用以下命令来验证末端用户证书:
```
openssl verify -CAfile enduser-certs/enduser-example.com.chain enduser-certs/enduser-example.com.crt
enduser-certs/enduser-example.com.crt: OK
```
你也可以针对 CRL 来验证。首先,将 PEM 格式的 CRL 和证书链相连接:
```
cat ../root/rootca.crt intermediate1.crt intermediate1.crl.pem > enduser-certs/enduser-example.com.crl.chain
```
验证证书:
```
openssl verify -crl_check -CAfile enduser-certs/enduser-example.com.crl.chain enduser-certs/enduser-example.com.crt
```
没有撤销时的输出:
```
enduser-certs/enduser-example.com.crt: OK
```
撤销后的输出如下:
```
enduser-certs/enduser-example.com.crt: CN = example.com, ST = Noord Holland, C = NL, O = Example Inc, OU = IT Dept
error 23 at 0 depth lookup:certificate revoked
```
---
via: <https://raymii.org/s/tutorials/OpenSSL_command_line_Root_and_Intermediate_CA_including_OCSP_CRL%20and_revocation.html>
作者:Remy van Elst 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
| 404 | Not Found | null |
5,444 | 如何实现 ssh 无密码登录 | http://xmodulo.com/how-to-enable-ssh-login-without.html | 2015-05-14T11:32:00 | [
"ssh",
"密码"
] | https://linux.cn/article-5444-1.html | 假设你是hostA上的一个用户"aliceA",想以用户“aliceB”的身份ssh到hostB上,但又不想输入密码。那么,你可以参考这篇教程实现ssh无密码登录。
![](/data/attachment/album/201505/14/003705gnrn1j2laldacr9i.png)
首先,你需要以用户“aliceA”的身份登录到hostA上。
然后,使用ssh-keygen生成一对rsa公私钥,生成的密钥对会存放在~/.ssh目录下。
```
$ ssh-keygen -t rsa
```
接下来,使用下面的命令在目标主机hostB上的aliceB用户目录下创建~/.ssh目录。如果在aliceB@hostB上已经存在.ssh目录,这一步会被略过。
```
$ ssh aliceB@hostB mkdir -p .ssh
```
最后,将hostA上用户“aliceA”的公钥拷贝到aliceB@hostB上,来实现无密码ssh。
```
$ cat .ssh/id_rsa.pub | ssh aliceB@hostB 'cat >> .ssh/authorized_keys'
```
自此以后,从aliceA@hostA上ssh到aliceB@hostB上再也不需要输入密码。(LCTT 译注:上述的创建目录并复制的操作也可以通过一个 ssh-copy-id 命令一步完成:`ssh-copy-id -i ~/.ssh/id_rsa.pub aliceB@hostB`)
### 疑难解答
1. 即使在密钥认证生效后,你可能仍然需要输入SSH密码。如果遇到这种情况,请检查系统日志(如/var/log/secure)以查看是否出现下面的异常。
Authentication refused: bad ownership or modes for file /home/aliceB/.ssh/authorized\_keys
在这种情况下,密钥认证的失败是由于~/.ssh/authorized\_keys文件的权限或拥有者不正确。一般情况,如果这个文件对除了你之外的所有用户都可读,就会出现这个错误。用下面的方式改变文件的权限以修正错误。
```
$ chmod 700 ~/.ssh/authorized_keys
```
---
via: <http://xmodulo.com/how-to-enable-ssh-login-without.html>
作者:[Dan Nanni](http://xmodulo.com/author/nanni) 译者:[KayGuoWhu](https://github.com/KayGuoWhu) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,445 | Linux 有问必答:如何在 Ubuntu 上配置网桥 | http://ask.xmodulo.com/configure-linux-bridge-network-manager-ubuntu.html | 2015-05-14T13:45:00 | [
"网桥"
] | /article-5445-1.html |
>
> **Question**: 我需要在我的Ubuntu主机上建立一个Linux网桥,共享一个网卡给其他一些虚拟主机或在主机上创建的容器。我目前正在Ubuntu上使用网络管理器(Network Manager),所以最好>能使用网络管理器来配置一个网桥。我该怎么做?
>
>
>
网桥是一个硬件装备,用来将两个或多个数据链路层(OSI七层模型中第二层)互联,以使得不同网段上的网络设备可以互相访问。当你想要互联一个主机里的多个虚拟机器或者以太接口时,就需要在Linux主机里有一个类似桥接的概念。这里使用的是一种软网桥。
有很多的方法来配置一个Linux网桥。举个例子,在一个无外接显示/键盘的服务器环境里,你可以使用[brct](http://xmodulo.com/how-to-configure-linux-bridge-interface.html)手动地配置一个网桥。而在桌面环境下,在网络管理器里也支持网桥设置。那就让我们测试一下如何用网络管理器配置一个网桥吧。
### 要求
为了避免[任何问题](https://bugs.launchpad.net/ubuntu/+source/network-manager/+bug/1273201),建议你的网络管理器版本为0.9.9或者更高,它用在 Ubuntu 15.04或者更新的版本。
```
$ apt-cache show network-manager | grep Version
```
---
```
Version: 0.9.10.0-4ubuntu15.1
Version: 0.9.10.0-4ubuntu15
```
### 创建一个网桥
使用网络管理器创建网桥最简单的方式就是通过nm-connection-editor。这款GUI(图形用户界面)的工具允许你傻瓜式地配置一个网桥。
首先,启动nm-connection-editor。
```
$ nm-connection-editor
```
该编辑器的窗口会显示给你一个列表,列出目前配置好的网络连接。点击右上角的“添加”按钮,创建一个网桥。
![](/data/attachment/album/201505/14/064704jwk55ol52qtcwc3s.jpg)
接下来,选择“Bridge”(网桥)作为连接类型。
![](/data/attachment/album/201505/14/064705nlmwlswdwf9gwgzu.jpg)
现在,开始配置网桥,包括它的名字和所桥接的连接。如果没有创建过其他网桥,那么默认的网桥接口会被命名为bridge0。
回顾一下,创建网桥的目的是为了通过网桥共享你的以太网卡接口,所以你需要添加以太网卡接口到网桥。在图形界面添加一个新的“桥接的连接”可以实现上述目的。点击“Add”按钮。
![](/data/attachment/album/201505/14/064706oa7lainzjfhwtf8j.jpg)
选择“以太网”作为连接类型。
![](/data/attachment/album/201505/14/064706d1ss0i04h3c9mzem.jpg)
在“设备的 MAC 地址”区域,选择你想要从属于网桥的接口。本例中,假设该接口是eth0。
![](/data/attachment/album/201505/14/064707pz4k6qx6qpi4eevz.jpg)
点击“常规”标签,并且选中两个复选框,分别是“当其可用时自动连接到该网络”和“所有用户都可以连接到该网络”。
![](/data/attachment/album/201505/14/064709sf7lsx4tzdt8qpxp.jpg)
切换到“IPv4 设置”标签,为网桥配置DHCP或者是静态IP地址。注意,你应该为从属的以太网卡接口eth0使用相同的IPv4设定。本例中,我们假设eth0是用过DHCP配置的。因此,此处选择“自动(DHCP)”。如果eth0被指定了一个静态IP地址,那么你也应该指定相同的IP地址给网桥。
![](/data/attachment/album/201505/14/064710jpojmdtfqjwwpbcf.jpg)
最后,保存网桥的设置。
现在,你会看见一个新增的网桥连接被创建在“网络连接”窗口里。因为已经从属与网桥,以前配置好的有线连接 eth0 就不再需要了,所以去删除原来的有线连接吧。
![](/data/attachment/album/201505/14/064710nopp5zp5q13qe3uz.jpg)
这时候,网桥连接会被自动激活。从指定给eth0的IP地址被网桥接管起,你将会暂时丢失一下连接。当IP地址赋给了网桥,你将会通过网桥连接回你的以太网卡接口。你可以通过“Network”设置确认一下。
![](/data/attachment/album/201505/14/064711yzb6u4x4e6e64ftq.jpg)
同时,检查可用的接口。提醒一下,网桥接口必须已经取代了任何你的以太网卡接口拥有的IP地址。
![](/data/attachment/album/201505/14/064712yi5wlau249xaaaks.jpg)
就这么多了,现在,网桥已经可以用了。
---
via: <http://ask.xmodulo.com/configure-linux-bridge-network-manager-ubuntu.html>
作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /configure-linux-bridge-network-manager-ubuntu.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c5660>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)")) | null |
5,446 | 一些重要 Docker 命令的简单介绍 | http://linoxide.com/linux-how-to/important-docker-commands/ | 2015-05-14T15:07:00 | [
"Docker"
] | /article-5446-1.html | 大家好,今天我们来学习一些在你使用 Docker 之前需要了解的重要的 Docker 命令。[Docker](https://www.docker.com/) 是一个开源项目,提供了一个可以打包、装载和运行任何应用的轻量级容器的开放平台。它没有语言支持、框架和打包系统的限制,从小型的家用电脑到高端服务器,在何时何地都可以运行。这使它们可以不依赖于特定软件栈和供应商,像一块块积木一样部署和扩展网络应用、数据库和后端服务。
![](/data/attachment/album/201505/14/071619ux287xfzx66799uh.jpg)
Docker 命令简单易学,也很容易实现或实践。这是一些你运行 Docker 并充分利用它需要知道的简单 Docker 命令。
### 1. 拉取 Docker 镜像
由于容器是由 Docker 镜像构建的,首先我们需要拉取一个 docker 镜像来开始。我们可以从 Docker Registry Hub 获取所需的 docker 镜像。在我们使用 pull 命令拉取任何镜像之前,为了避免 pull 命令的一些恶意风险,我们需要保护我们的系统。为了保护我们的系统不受这个风险影响,我们需要添加 **127.0.0.1 index.docker.io** 到 /etc/hosts 条目。我们可以通过使用喜欢的文本编辑器完成。
```
# nano /etc/hosts
```
现在,增加下面的一行到文件并保存退出。
```
127.0.0.1 index.docker.io
```
![Docker 宿主机](/data/attachment/album/201505/14/071622rvy5zq65mw9xiqg9.png)
要拉取一个 docker 镜像,我们需要运行下面的命令。
```
# docker pull registry.hub.docker.com/busybox
```
![Docker pull 命令](/data/attachment/album/201505/14/071622v46d7wzdz8rr22dn.png)
我们可以检查本地是否有可用的 Docker 镜像。
```
# docker images
```
![Docker 镜像](/data/attachment/album/201505/14/071623rbisgsdswaaecn7g.png)
### 2. 运行 Docker 容器
现在,成功地拉取要求的或所需的 Docker 镜像之后,我们当然想运行这个 Docker 镜像。我们可以用 docker run 命令在镜像上运行一个 docker 容器。在 Docker 镜像上运行一个 docker 容器时我们有很多选项和标记。我们使用 -t 和 -i 选项来运行一个 docker 镜像并进入容器,如下面所示。
```
# docker run -it busybox
```
![Docker Run Shell 命令](/data/attachment/album/201505/14/071624d4u2nn2a528k52nb.png)
从上面的命令中,我们进入了容器并可以通过交互 shell 访问它的内容。我们可以键入 **Ctrl-D** 从shell中退出。
现在,在后台运行容器,我们用 -d 标记分离 shell,如下所示。
```
# docker run -itd busybox
```
![后台运行容器](/data/attachment/album/201505/14/071624uyv67elpqjhjhaal.png)
如果你想进入到一个正在运行的容器,我们可以使用 attach 命令加一个容器 id。可以使用 **docker ps** 命令获取容器 id。
```
# docker attach <container id>
```
![进入Docker](/data/attachment/album/201505/14/071624ky2i55yyyl5zw79e.png)
### 3. 检查容器运行
不论容器是否运行,查看日志文件都很简单。我们可以使用下面的命令去检查是否有 docker 容器在实时运行。
```
# docker ps
```
现在,查看正在运行的或者之前运行的容器的日志,我们需要运行以下的命令。
```
# docker ps -a
```
![查看 Docker 容器](/data/attachment/album/201505/14/071625m4lbb0dzb0cbi5jy.png)
### 4. 查看容器信息
我们可以使用 inspect 命令查看一个 Docker 容器的各种信息。
```
# docker inspect <container id>
```
![检查Docker](/data/attachment/album/201505/14/071626ll5yy70s9s3bbrr5.png)
### 5. 杀死或删除
我们可以使用容器 id 杀死或者停止 docker 容器(进程),如下所示。
```
# docker stop <container id>
```
要停止每个正在运行的容器,我们需要运行下面的命令。
```
# docker kill $(docker ps -q)
```
现在,如我我们希望移除一个 docker 镜像,运行下面的命令。
```
# docker rm <container id>
```
如果我们想一次性移除所有 docker 镜像,我们可以运行以下命令。
```
# docker rm $(docker ps -aq)
```
### 结论
这些都是充分学习和使用 Docker 很基本的 docker 命令。有了这些命令,Docker 变得很简单,可以提供给最终用户一个易用的计算平台。根据上面的教程,任何人学习 Docker 命令都非常简单。如果你有任何问题,建议,反馈,请写到下面的评论框中以便我们改进和更新内容。多谢! 希望你喜欢 :-)
---
via: <http://linoxide.com/linux-how-to/important-docker-commands/>
作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/important-docker-commands/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c52a0>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,453 | 14 个 grep 命令的例子 | http://www.linuxtechi.com/linux-grep-command-with-14-different-examples/ | 2015-05-17T08:10:00 | [
"grep"
] | https://linux.cn/article-5453-1.html | ### 概述:
所有的类linux系统都会提供一个名为**grep(global regular expression print,全局正则表达式输出)**的搜索工具。grep命令在对一个或多个文件的内容进行基于模式的搜索的情况下是非常有用的。模式可以是单个字符、多个字符、单个单词、或者是一个句子。
当命令匹配到执行命令时指定的模式时,grep会将包含模式的一行输出,但是并不对原文件内容进行修改。
![](/data/attachment/album/201505/16/231734coi0os7nr0frpas6.png)
在本文中,我们将会讨论到14个grep命令的例子。
### 例1 在文件中查找模式(单词)
在/etc/passwd文件中查找单词“linuxtechi”
```
root@Linux-world:~# grep linuxtechi /etc/passwd
linuxtechi:x:1000:1000:linuxtechi,,,:/home/linuxtechi:/bin/bash
root@Linux-world:~#
```
### 例2 在多个文件中查找模式。
```
root@Linux-world:~# grep linuxtechi /etc/passwd /etc/shadow /etc/gshadow
/etc/passwd:linuxtechi:x:1000:1000:linuxtechi,,,:/home/linuxtechi:/bin/bash
/etc/shadow:linuxtechi:$6$DdgXjxlM$4flz4JRvefvKp0DG6re:16550:0:99999:7:::/etc/gshadow:adm:*::syslog,linuxtechi
/etc/gshadow:cdrom:*::linuxtechi
/etc/gshadow:sudo:*::linuxtechi
/etc/gshadow:dip:*::linuxtechi
/etc/gshadow:plugdev:*::linuxtechi
/etc/gshadow:lpadmin:!::linuxtechi
/etc/gshadow:linuxtechi:!::
/etc/gshadow:sambashare:!::linuxtechi
root@Linux-world:~#
```
### 例3 使用-l参数列出包含指定模式的文件的文件名。
```
root@Linux-world:~# grep -l linuxtechi /etc/passwd /etc/shadow /etc/fstab /etc/mtab
/etc/passwd
/etc/shadow
root@Linux-world:~#
```
### 例4 使用-n参数,在文件中查找指定模式并显示匹配行的行号
```
root@Linux-world:~# grep -n linuxtechi /etc/passwd
39:linuxtechi:x:1000:1000:linuxtechi,,,:/home/linuxtechi:/bin/bash
root@Linux-world:~#
```
```
root@Linux-world:~# grep -n root /etc/passwd /etc/shadow
```
![](/data/attachment/album/201505/16/231736j4b1apg41e84f4wg.jpg)
### 例5 使用-v参数输出不包含指定模式的行
输出/etc/passwd文件中所有不含单词“linuxtechi”的行
```
root@Linux-world:~# grep -v linuxtechi /etc/passwd
```
![](/data/attachment/album/201505/16/231737ar52q4cg8q4lm914.jpg)
### 例6 使用 ^ 符号输出所有以某指定模式开头的行
Bash脚本将 ^ 符号视作特殊字符,用于指定一行或者一个单词的开始。例如输出/etc/passes文件中所有以“root”开头的行
```
root@Linux-world:~# grep ^root /etc/passwd
root:x:0:0:root:/root:/bin/bash
root@Linux-world:~#
```
### 例7 使用 $ 符号输出所有以指定模式结尾的行。
输出/etc/passwd文件中所有以“bash”结尾的行。
```
root@Linux-world:~# grep bash$ /etc/passwd
root:x:0:0:root:/root:/bin/bash
linuxtechi:x:1000:1000:linuxtechi,,,:/home/linuxtechi:/bin/bash
root@Linux-world:~#
```
Bash脚本将美元($)符号视作特殊字符,用于指定一行或者一个单词的结尾。
### 例8 使用 -r 参数递归地查找特定模式
```
root@Linux-world:~# grep -r linuxtechi /etc/
/etc/subuid:linuxtechi:100000:65536
/etc/group:adm:x:4:syslog,linuxtechi
/etc/group:cdrom:x:24:linuxtechi
/etc/group:sudo:x:27:linuxtechi
/etc/group:dip:x:30:linuxtechi
/etc/group:plugdev:x:46:linuxtechi
/etc/group:lpadmin:x:115:linuxtechi
/etc/group:linuxtechi:x:1000:
/etc/group:sambashare:x:131:linuxtechi
/etc/passwd-:linuxtechi:x:1000:1000:linuxtechi,,,:/home/linuxtechi:/bin/bash
/etc/passwd:linuxtechi:x:1000:1000:linuxtechi,,,:/home/linuxtechi:/bin/bash
............................................................................
```
上面的命令将会递归的在/etc目录中查找“linuxtechi”单词
### 例9 使用 grep 查找文件中所有的空行
```
root@Linux-world:~# grep ^$ /etc/shadow
root@Linux-world:~#
```
由于/etc/shadow文件中没有空行,所以没有任何输出
### 例10 使用 -i 参数查找模式
grep命令的-i参数在查找时忽略字符的大小写。
我们来看一个例子,在paswd文件中查找“LinuxTechi”单词。
```
nextstep4it@localhost:~$ grep -i LinuxTechi /etc/passwd
linuxtechi:x:1001:1001::/home/linuxtechi:/bin/bash
nextstep4it@localhost:~$
```
### 例11 使用 -e 参数查找多个模式
例如,我想在一条grep命令中查找‘linuxtechi’和‘root’单词,使用-e参数,我们可以查找多个模式。
```
root@Linux-world:~# grep -e "linuxtechi" -e "root" /etc/passwd
root:x:0:0:root:/root:/bin/bash
linuxtechi:x:1000:1000:linuxtechi,,,:/home/linuxtechi:/bin/bash
root@Linux-world:~#
```
### 例12 使用 -f 用文件指定待查找的模式
首先,在当前目录中创建一个搜索模式文件“grep\_pattern”,我想文件中输入的如下内容。
```
root@Linux-world:~# cat grep_pattern
^linuxtechi
root
false$
root@Linux-world:~#
```
现在,试试使用grep\_pattern文件进行搜索
```
root@Linux-world:~# grep -f grep_pattern /etc/passwd
```
![](/data/attachment/album/201505/16/231738r8awtkvpewkearr8.jpg)
### 例13 使用 -c 参数计算模式匹配到的数量
继续上面例子,我们在grep命令中使用-c命令计算匹配指定模式的数量
```
root@Linux-world:~# grep -c -f grep_pattern /etc/passwd
22
root@Linux-world:~#
```
### 例14 输出匹配指定模式行的前或者后面N行
a)使用-B参数输出匹配行的前4行
```
root@Linux-world:~# grep -B 4 "games" /etc/passwd
```
![](/data/attachment/album/201505/16/231738a6955ls928ii68iu.jpg)
b)使用-A参数输出匹配行的后4行
```
root@Linux-world:~# grep -A 4 "games" /etc/passwd
```
![](/data/attachment/album/201505/16/231739e8d68vwzp8df0xs9.jpg)
c)使用-C参数输出匹配行的前后各4行
```
root@Linux-world:~# grep -C 4 "games" /etc/passwd
```
![](/data/attachment/album/201505/16/231739zz9ixw1xb26iiix1.jpg)
---
via: <http://www.linuxtechi.com/linux-grep-command-with-14-different-examples/>
作者:[Pradeep Kumar](http://www.linuxtechi.com/author/pradeep/) 译者:[cvsher](https://github.com/cvsher) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,454 | Linux有问必答:如何在VPS上安装和访问CentOS 7远程桌面 | http://ask.xmodulo.com/centos-remote-desktop-vps.html | 2015-05-17T09:49:31 | [
"远程桌面",
"VNC"
] | /article-5454-1.html |
>
> **提问**: 我想在VPS中安装CentOS桌面,并可以直接从我家远程访问GUI桌面。在VPS上设置和访问CentOS远程桌面有什么建议吗?
>
>
>
如何远程办公或者远程弹性化工作制在技术领域正变得越来越流行。这个趋势背后的一个技术就是远程桌面。你的桌面环境在云中,你可以在任何你去的地方,或者在家或者工作场所访问你的远程桌面。
这个教程介绍如何VPS中设置基于CentOS的远程桌面。现在,我们会先展示CentOS的基础环境。
我们假设你已经创建了CentOS 7的VPS实例(比如,使用[DigitalOcean](http://xmodulo.com/go/digitalocean) 或者 Amazon EC2)。请确保你的VPS实例有至少1GB的内存。不然,CentOS将会在你访问远程桌面的时候会崩溃。
![](/data/attachment/album/201505/17/094935h89994rfdorr6rlu.jpg)
### 第一步: 安装CentOS桌面
如果你现在安装的CentOS版本是没有桌面的最小版本,你需要先在VPS上安装桌面(比如GNOME)。比如,DigitalOcean的镜像就是最小版本,它需要如下安装[桌面GUI](http://xmodulo.com/how-to-install-gnome-desktop-on-centos.html)
```
# yum groupinstall "GNOME Desktop"
```
在安装完成之后重启VPS。
### 第二步:安装和配置VNC服务器
接下来就是安装和配置VNC服务器。我们使用的是TigerVNC,一个开源的VNC服务实现。
```
# yum install tigervnc-server
```
现在创建一个用户账户(比如:xmodulo)用来访问远程桌面。
```
# useradd xmodulo
# passwd xmodulo
```
当一个用户尝试使用VNC访问远程桌面时,VNC守护进程就会启动来处理这个请求。这意味着你需要为每个用户创建一个独立的VNC配置文件。
CentOS依靠systemd来管理和配置系统服务。所以我们将使用systemd来为用户xmodulo配置VNC服务器。
首先让我们使用下面任意一条命令来检查VNC服务器的状态。
```
# systemctl status vncserver@:.service
# systemctl is-enabled vncserver@.service
```
默认的,刚安装的VNC服务并没有激活(禁用)。
![](/data/attachment/album/201505/17/094938agsgofzzs6om7fpo.jpg)
现在复制一份通用的VNC服务文件来为用户xmodulo创建一个VNC服务配置。
```
# cp /lib/systemd/system/vncserver@.service /etc/systemd/system/vncserver@:1.service
```
用本文编辑器来打开配置文件,用实际的用户名(比如:xmodulo)来替换[Service]下面的。同样。在ExecStart后面追加 "-geometry " 参数。最后,要修改下面“ExecStart”和“PIDFile”两行。
```
# vi /etc/systemd/system/vncserver@:1.service
```
---
```
[Service]
Type=forking
# Clean any existing files in /tmp/.X11-unix environment
ExecStartPre=/bin/sh -c '/usr/bin/vncserver -kill %i > /dev/null 2>&1 || :'
ExecStart=/sbin/runuser -l xmodulo -c "/usr/bin/vncserver %i -geometry 1024x768"
PIDFile=/home/xmodulo/.vnc/%H%i.pid
ExecStop=/bin/sh -c '/usr/bin/vncserver -kill %i > /dev/null 2>&1 || :'
```
现在为用户xmodulo设置密码(可选)。首先切换到该用户,并运行vncserver命令。
```
# su - xmodulo
# vncserver
```
你会被提示输入用户的VNC密码。密码设置完成后,你下次需要用这个密码来访问你的远程桌面。
![](/data/attachment/album/201505/17/094939zedcbb1xmojammdj.jpg)
最后,重新加载服务来使新的VNC配置生效:
```
# systemctl daemon-reload
```
在启动时自动启动VNC服务:
```
# systemctl enable vncserver@:1.service
```
检查vnc服务正在监听的端口:
```
# netstat -tulpn | grep vnc
```
![](/data/attachment/album/201505/17/094940buiplyk74qkudpl4.jpg)
端口5901是VNC默认的客户端连接到VNC服务器使用的端口。
### 第三步:通过SSH连接到远程桌面
从设计上说,VNC使用的远程帧缓存(RFB)并不是一种安全的协议,那么在VNC客户端上直接连接到VNC服务器上并不是一个好主意。任何敏感信息比如密码都可以在VNC流量中被轻易地泄露。因此,我强烈建议使用SSH隧道来[加密你的VNC流量](http://xmodulo.com/how-to-set-up-vnc-over-ssh.html)。
在你要运行VNC客户端的本机上,使用下面的命令来创建一个连接到远程VPS的SSH通道。当被要输入SSH密码时,输入用户的密码。
```
$ ssh xmodulo@<VPS-IP-address> -L 5901:127.0.0.1:5901
```
用你自己的VNC用户名来替换“xmodulo”,并填上你自己的VPS IP地址。
一旦SSH通道建立之后,远程VNC流量就会通过ssh通道路由并发送到127.0.0.1:5901。
现在启动你最爱的VNC客户端(比如:vinagre),来连接到127.0.0.1:5901。
![](/data/attachment/album/201505/17/094940ljzz6atnj66ky7gk.png)
你将被要求输入VNC密码。当你输入VNC密码时,你就可以安全地连接到CentOS的远程桌面了。
![](/data/attachment/album/201505/17/094940p75z502889990008.jpg)
然后就会看到如题图的显示。
---
via: <http://ask.xmodulo.com/centos-remote-desktop-vps.html>
作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /centos-remote-desktop-vps.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c6920>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)")) | null |
5,455 | 在Ubuntu 14.10上安装基于Web的监控工具:Linux-Dash | http://www.ubuntugeek.com/install-linux-dash-web-based-monitoring-tool-on-ubntu-14-10.html | 2015-05-17T10:36:00 | [
"Linux-Dash",
"Dash"
] | https://linux.cn/article-5455-1.html | Linux-Dash是一个用于GNU/Linux机器的,低开销的监控仪表盘。您可以安装试试!Linux Dash的界面提供了您的服务器的所有关键信息的详细视图,可监测的信息包括RAM、磁盘使用率、网络、安装的软件、用户、运行的进程等。所有的信息都被分成几类,您可以通过主页工具栏中的按钮跳到任何一类中。Linux Dash并不是最先进的监测工具,但它十分适合寻找灵活、轻量级、容易部署的应用的用户。
### Linux-Dash的功能
* 使用一个基于Web的漂亮的仪表盘界面来监控服务器信息
* 实时的按照你的要求监控RAM、负载、运行时间、磁盘配置、用户和许多其他系统状态
* 支持基于Apache2/niginx + PHP的服务器
* 通过点击和拖动来重排列控件
* 支持多种类型的linux服务器
### 当前控件列表
* 通用信息
* 平均负载
* RAM
* 磁盘使用量
* 用户
* 软件
* IP
* 网络速率
* 在线状态
* 处理器
* 日志
### 在Ubuntu server 14.10上安装Linux-Dash
首先您需要确认您安装了[Ubuntu LAMP server 14.10](http://www.ubuntugeek.com/step-by-step-ubuntu-14-10-utopic-unicorn-lamp-server-setup.html),接下来您需要安装下面的包:
```
sudo apt-get install php5-json unzip
```
安装这个模块后,需要在apache2中启用该模块,所以您需要使用下面的命令重启apache2服务器:
```
sudo service apache2 restart
```
现在您需要下载linux-dash的安装包并安装它:
```
wget https://github.com/afaqurk/linux-dash/archive/master.zip
unzip master.zip
sudo mv linux-dash-master/ /var/www/html/
```
接下来您需要使用下面的命令来改变权限:
```
sudo chmod 755 /var/www/html/linux-dash-master/
```
现在您便可以访问http://serverip/linux-dash-master/了。您应该会看到类似下面的输出:
![](/data/attachment/album/201505/17/103645yaanx712tdnabpz8.png)
![](/data/attachment/album/201505/17/103646vg033w4glvvzkrzu.png)
---
via: <http://www.ubuntugeek.com/install-linux-dash-web-based-monitoring-tool-on-ubntu-14-10.html>
作者:[ruchi](http://www.ubuntugeek.com/author/ubuntufix) 译者:[wwy-hust](https://github.com/wwy-hust) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 200 | OK | # Install Linux-Dash (Web Based Monitoring tool) on Ubntu 14.10
**Sponsored Link**
**Linux-Dash Features**
A beautiful web-based dashboard for monitoring server info
Live, on-demand monitoring of RAM, Load, Uptime, Disk Allocation, Users and many more system stats
Drop-in install for servers with Apache2/nginx + PHP
Click and drag to re-arrange widgets
Support for wide range of linux server flavors
**List of Current Widgets**
General info
Load Average
RAM
Disk Usage
Users
Software
IP
Internet Speed
Online
Processes
Logs
**Install Linux-dash on ubuntu server 14.10**
First you need to make sure you have [Ubuntu LAMP server 14.10](http://www.ubuntugeek.com/step-by-step-ubuntu-14-10-utopic-unicorn-lamp-server-setup.html) installed and Now you have to install the following package
sudo apt-get install php5-json unzip
After the installation this module will enable for apache2 so you need to restart the apache2 server using the following command
sudo service apache2 restart
Now you need to download the linux-dash package and install
wget https://github.com/afaqurk/linux-dash/archive/master.zip
unzip master.zip
sudo mv linux-dash-master/ /var/www/html/linux-dash-master/
Now you need to change the permissions using the following command
sudo chmod 755 /var/www/html/linux-dash-master/
Now you need to go to http://serverip/linux-dash-master/ you should see similar to the following output
1) You changed the path in the middle of your instructions. You probably want to correct that.
2) After installing this I noticed it was google-chrome that was using close to 3GBs and 95% of my CPU. It really looks like Chrome is the new IE. Nothing a pkill -9 chrome couldn’t fix.
3) Thank you for the post.
Updated the correct path in all places thanks for the headsup
In Network section the external address IP is not correct, there is an addition of “zero” like 184.1510.310.13 for example. :S |
5,456 | Web缓存基础:术语、HTTP报头和缓存策略 | https://www.digitalocean.com/community/tutorials/web-caching-basics-terminology-http-headers-and-caching-strategies | 2015-05-17T11:12:29 | [
"缓存"
] | https://linux.cn/article-5456-1.html | ### 简介
对于您的站点的访问者来说,智能化的内容缓存是提高用户体验最有效的方式之一。缓存,或者对之前的请求的临时存储,是HTTP协议实现中最核心的内容分发策略之一。分发路径中的组件均可以缓存内容来加速后续的请求,这受控于对该内容所声明的缓存策略。
在这份指南中,我们将讨论一些Web内容缓存的基本概念。这主要包括如何选择缓存策略以保证互联网范围内的缓存能够正确的处理您的内容。我们将谈一谈缓存带来的好处、副作用以及不同的策略能带来的性能和灵活性的最大结合。
![](/data/attachment/album/201505/17/111231k9cdnr96ab6dhbbm.jpg)
### 什么是缓存(caching)?
缓存(caching)是一个描述存储可重用资源以便加快后续请求的行为的术语。有许多不同类型的缓存,每种都有其自身的特点,应用程序缓存和内存缓存由于其对特定回复的加速,都很常用。
这份指南的主要讲述的Web缓存是一种不同类型的缓存。Web缓存是HTTP协议的一个核心特性,它能最小化网络流量,并且提升用户所感知的整个系统响应速度。内容从服务器到浏览器的传输过程中,每个层面都可以找到缓存的身影。
Web缓存根据特定的规则缓存相应HTTP请求的响应。对于缓存内容的后续请求便可以直接由缓存满足而不是重新发送请求到Web服务器。
### 好处
有效的缓存技术不仅可以帮助用户,还可以帮助内容的提供者。缓存对内容分发带来的好处有:
* **减少网络开销**:内容可以在从内容提供者到内容消费者网络路径之间的许多不同的地方被缓存。当内容在距离内容消费者更近的地方被缓存时,由于缓存的存在,请求将不会消耗额外的网络资源。
* **加快响应速度**:由于并不是必须通过整个网络往返,缓存可以使内容的获得变得更快。缓存放在距用户更近的地方,例如浏览器缓存,使得内容的获取几乎是瞬时的。
* **在同样的硬件上提高速度**:对于保存原始内容的服务器来说,更多的性能可以通过允许激进的缓存策略从硬件上压榨出来。内容拥有者们可以利用分发路径上某个强大的服务器来应对特定内容负载的冲击。
* **网络中断时内容依旧可用**:使用某种策略,缓存可以保证在原始服务器变得不可用时,相应的内容对用户依旧可用。
### 术语
在面对缓存时,您可能对一些经常遇到的术语可能不太熟悉。一些常见的术语如下:
* **原始服务器**:原始服务器是内容的原始存放地点。如果您是Web服务器管理员,它就是您所管理的机器。它负责为任何不能从缓存中得到的内容进行回复,并且负责设置所有内容的缓存策略。
* **缓存命中率**:一个缓存的有效性依照缓存的命中率进行度量。它是可以从缓存中得到数据的请求数与所有请求数的比率。缓存命中率高意味着有很高比例的数据可以从缓存中获得。这通常是大多数管理员想要的结果。
* **新鲜度**:新鲜度用来描述一个缓存中的项目是否依旧适合返回给客户端。缓存中的内容只有在由缓存策略指定的新鲜期内才会被返回。
* **过期内容**:缓存中根据缓存策略的新鲜期设置已过期的内容。过期的内容被标记为“陈旧”。通常,过期内容不能用于回复客户端的请求。必须重新从原始服务器请求新的内容或者至少验证缓存的内容是否仍然准确。
* **校验**:缓存中的过期内容可以验证是否有效以便刷新过期时间。验证过程包括联系原始服务器以检查缓存的数据是否依旧代表了最近的版本。
* **失效**:失效是依据过期日期从缓存中移除内容的过程。当内容在原始服务器上已被改变时就必须这样做,缓存中过期的内容会导致客户端发生问题。
还有许多其他的缓存术语,不过上面的这些应该能帮助您开始。
### 什么能被缓存?
某些特定的内容比其他内容更容易被缓存。对大多数站点来说,一些适合缓存的内容如下:
* Logo和商标图像
* 普通的不变化的图像(例如,导航图标)
* CSS样式表
* 普通的Javascript文件
* 可下载的内容
* 媒体文件
这些文件更倾向于不经常改变,所以长时间的对它们进行缓存能获得好处。
一些项目在缓存中必须加以注意:
* HTML页面
* 会替换改变的图像
* 经常修改的Javascript和CSS文件
* 需要有认证后的cookies才能访问的内容
一些内容从来不应该被缓存:
* 与敏感信息相关的资源(银行数据,等)
* 用户相关且经常更改的数据
除上面的通用规则外,通常您需要指定一些规则以便于更好地缓存不同种类的内容。例如,如果登录的用户都看到的是同样的网站视图,就应该在任何地方缓存这个页面。如果登录的用户会在一段时间内看到站点中用户特定的视图,您应该让用户的浏览器缓存该数据而不应让任何中介节点缓存该视图。
### Web内容缓存的位置
Web内容会在整个分发路径中的许多不同的位置被缓存:
* **浏览器缓存**:Web浏览器自身会维护一个小型缓存。典型地,浏览器使用一种策略指示缓存最重要的内容。这可能是用户相关的内容或可能会再次请求且下载代价较高。
* **中间缓存代理**:任何在客户端和您的基础架构之间的服务器都可以按期望缓存一些内容。这些缓存可能由ISP(网络服务提供者)或者其他独立组织提供。
* **反向缓存**:您的服务器基础架构可以为后端的服务实现自己的缓存。如果实现了缓存,那么便可以在处理请求的位置返回相应的内容而不用每次请求都使用后端服务。
上面的这些位置通常都可以根据它们自身的缓存策略和内容源的缓存策略缓存一些相应的内容。
### 缓存头部
缓存策略依赖于两个不同的因素。所缓存的实体本身需要决定是否应该缓存可接受的内容。它可以只缓存部分可以缓存的内容,但不能缓存超过限制的内容。
缓存行为主要由缓存策略决定,而缓存策略由内容拥有者设置。这些策略主要通过特定的HTTP头部来清晰地表达。
经过几个不同HTTP协议的变化,出现了一些不同的针对缓存方面的头部,它们的复杂度各不相同。下面列出了那些你也许应该注意的:
* \*\*`Expires`\*\*:尽管使用范围相当有限,但`Expires`头部是非常简洁明了的。通常它设置一个未来的时间,内容会在此时间过期。这时,任何对同样内容的请求都应该回到原始服务器处。这个头部或许仅仅最适合回退模式(fall back)。
* \*\*`Cache-Control`\*\*:这是`Expires`的一个更加现代化的替换物。它已被很好的支持,且拥有更加灵活的实现。在大多数案例中,它比`Expires`更好,但同时设置两者的值也无妨。稍后我们将讨论您可以设置的`Cache-Control`的详细选项。
* \*\*`ETag`\*\*:`ETag`用于缓存验证。源服务器可以在首次服务一个内容时为该内容提供一个独特的`ETag`。当一个缓存需要验证这个内容是否即将过期,他会将相应的`ETag`发送回服务器。源服务器或者告诉缓存内容是一致的,或者发送更新后的内容(带着新的`ETag`)。
* **`Last-Modified`**:这个头部指明了相应的内容最后一次被修改的时间。它可能会作为保证内容新鲜度的验证策略的一部分被使用。
* \*\*`Content-Length`\*\*:尽管并没有在缓存中明确涉及,`Content-Length`头部在设置缓存策略时很重要。某些软件如果不提前获知内容的大小以留出足够空间,则会拒绝缓存该内容。
* \*\*`Vary`\*\*:缓存系统通常使用请求的主机和路径作为存储该资源的键。当判断一个请求是否是请求同样内容时,`Vary`头部可以被用来提醒缓存系统需要注意另一个附加头部。它通常被用来告诉缓存系统同样注意`Accept-Encoding`头部,以便缓存系统能够区分压缩和未压缩的内容。
### Vary头部的隐语
`Vary`头部提供给您存储同一个内容的不同版本的能力,代价是降低了缓存的容量。
在使用`Accept-Encoding`时,设置`Vary`头部允许明确区分压缩和未压缩的内容。这在服务某些不能处理压缩数据的浏览器时很重要,它可以保证基本的可用性。`Vary`的一个典型的值是`Accept-Encoding`,它只有两到三个可选的值。
一开始看上去`User-Agent`这样的头部可以用于区分移动浏览器和桌面浏览器,以便您的站点提供差异化的服务。但`User-Agent`字符串是非标准的,结果将会造成在中间缓存中保存同一内容的许多不同版本的缓存,这会导致缓存命中率的降低。`Vary`头部应该谨慎使用,尤其是您不具备在您控制的中间缓存中使请求标准化的能力(也许可以,比如您可以控制CDN的话)。
### 缓存控制标志怎样影响缓存
上面我们提到了`Cache-Control`头部如何被用与现代缓存策略标准。能够通过这个头部设定许多不同的缓存指令,多个不同的指令通过逗号分隔。
一些您可以使用的指示内容缓存策略的`Cache-Control`的选项如下:
* **`no-cache`**:这个指令指示所有缓存的内容在新的请求到达时必须先重新验证,再发送给客户端。这条指令实际将内容立刻标记为过期的,但允许通过验证手段重新验证以避免重新下载整个内容。
* **`no-store`**:这条指令指示缓存的内容不能以任何方式被缓存。它适合在回复敏感信息时设置。
* **`public`**:它将内容标记为公有的,这意味着它能被浏览器和其他任何中间节点缓存。通常,对于使用了HTTP验证的请求,其回复被默认标记为`private`。`public`标记将会覆盖这个设置。
* **`private`**:它将内容标记为私有的。私有数据可以被用户的浏览器缓存,但*不能*被任何中间节点缓存。它通常用于用户相关的数据。
* **`max-age`**:这个设置指示了缓存内容的最大生存期,它在最大生存期后必须在源服务器处被验证或被重新下载。在现代浏览器中这个选项大体上取代了`Expires`头部,浏览器也将其作为决定内容的新鲜度的基础。这个选项的值以秒为单位表示,最大可以表示一年的新鲜期(31536000秒)。
* **`s-maxage`**:这个选项非常类似于`max-age`,它指明了内容能够被缓存的时间。区别是这个选项只在中间节点的缓存中有效。结合这两个选项可以构建更加灵活的缓存策略。
* **`must-revalidate`**:它指明了由`max-age`、`s-maxage`或`Expires`头部指明的新鲜度信息必须被严格的遵守。它避免了缓存的数据在网络中断等类似的场景中被使用。
* **`proxy-revalidate`**:它和上面的选项有着一样的作用,但只应用于中间的代理节点。在这种情况下,用户的浏览器可以在网络中断时使用过期内容,但中间缓存内容不能用于此目的。
* **`no-transform`**:这个选项告诉缓存在任何情况下都不能因为性能的原因修改接收到的内容。这意味着,缓存不允许压缩接收到的内容(没有从原始服务器处接收过压缩版本的该内容)并发送。
这些选项能够以不同的方式结合以获得不同的缓存行为。一些互斥的值如下:
* `no-cache`,`no-store`以及由其他前面未提到的选项指明的常用的缓存行为
* `public`和`private`
如果`no-store`和`no-cache`都被设置,那么`no-store`会取代`no-cache`。对于非授权的请求的回复,`public`是隐含的设置。对于授权的请求的回复,`private`选项是隐含的。他们可以通过在`Cache-Control`头部中指明相应的相反的选项以覆盖。
### 开发一种缓存策略
在理想情况下,任何内容都可以被尽可能缓存,而您的服务器只需要偶尔的提供一些验证内容即可。但这在现实中很少发生,因此您应该尝试设置一些明智的缓存策略,以在长期缓存和站点改变的需求间达到平衡。
### 常见问题
在许多情况中,由于内容被产生的方式(如根据每个用户动态的产生)或者内容的特性(例如银行的敏感数据),这些内容不应该被缓存。另一些许多管理员在设置缓存时可能面对的问题是外部缓存的数据未过期,但新版本的数据已经产生。
这些都是经常遇到的问题,它们会影响缓存的性能和您提供的数据的准确性。然而,我们可以通过开发提前预见这些问题的缓存策略来缓解这些问题。
### 一般性建议
尽管您的实际情况会指导您选择的缓存策略,但是下面的建议能帮助您获得一些合理的决定。
在您担心使用哪一个特定的头部之前,有一些特定的步骤可以帮助您提高您的缓存命中率。一些建议如下:
* **为图像、CSS和共享的内容建立特定的文件夹**:将内容放到特定的文件夹内使得您可以方便的从您的站点中的任何页面引用这些内容。
* **使用同样的URL来表示同样的内容**:由于缓存使用内容请求中的主机名和路径作为键,因此应保证您的所有页面中的该内容的引用方式相同,前一个建议能让这点更加容易做到。
* **尽可能使用CSS图像拼接**:对于像图标和导航等内容,使用CSS图像拼接能够减少渲染您页面所需要的请求往返,并且允许对拼接缓存很长一段时间。
* **尽可能将主机脚本和外部资源本地化**:如果您使用Javascript脚本和其他外部资源,如果上游没有提供合适的缓存头部,那么您应考虑将这些内容放在您自己的服务器上。您应该注意上游的任何更新,以便更新本地的拷贝。
* **对缓存内容收集文件摘要**:静态的内容比如CSS和Javascript文件等通常比较适合收集文件摘要。这意味着为文件名增加一个独特的标志符(通常是这个文件的哈希值)可以在文件修改后绕开缓存保证新的内容被重新获取。有很多工具可以帮助您创建文件摘要并且修改HTML文档中的引用。
对于不同的文件正确地选择不同的头部这件事,下面的内容可以作为一般性的参考:
* **允许所有的缓存存储一般内容**:静态内容以及非用户相关的内容应该在分发链的所有节点被缓存。这使得中间节点可以将该内容回复给多个用户。
* **允许浏览器缓存用户相关的内容**:对于每个用户的数据,通常在用户自己的浏览器中缓存是可以被接受且有益的。缓存在用户自身的浏览器能够使得用户在接下来的浏览中能够瞬时读取,但这些内容不适合在任何中间代理节点缓存。
* **将时间敏感的内容作为特例**:如果您的数据是时间敏感的,那么相对上面两条参考,应该将这些数据作为特例,以保证过期的数据不会在关键的情况下被使用。例如,您的站点有一个购物车,它应该立刻反应购物车里面的物品。依据内容的特点,可以在`Cache-Control`头部中使用`no-cache`或`no-store`选项。
* **总是提供验证器**:验证器使得过期的内容可以无需重新下载而得到刷新。设置`ETag`和`Last-Modified`头部将允许缓存向原始服务器验证内容,并在内容未修改时刷新该内容新鲜度以减少负载。
* **对于支持的内容设置长的新鲜期**:为了更加有效的利用缓存,一些作为支持性的内容应该被设置较长的新鲜期。这通常比较适合图像和CSS等由用户请求用来渲染HTML页面的内容。和文件摘要一起,设置延长的新鲜期将允许缓存长时间的存储这些资源。如果资源发生改变,修改的文件摘要将会使缓存的数据无效并触发对新的内容的下载。那时,新的支持的内容会继续被缓存。
* **对父内容设置短的新鲜期**:为了使得前面的模式正常工作,容器类的内容应该相应的设置短的新鲜期,或者设置不全部缓存。这通常是在其他协助内容中使用的HTML页面。这个HTML页面将会被频繁的下载,使得它能快速的响应改变。支持性的内容因此可以被尽量缓存。
关键之处便在于达到平衡,一方面可以尽量的进行缓存,另一方面为未来保留当改变发生时从而改变整个内容的机会。您的站点应该同时具有:
* 尽量缓存的内容
* 拥有短的新鲜期的缓存内容,可以被重新验证
* 完全不被缓存的内容
这样做的目的便是将内容尽可能的移动到第一个分类(尽量缓存)中的同时,维持可以接受的缓存命中率。
结论
--
花时间确保您的站点使用了合适的缓存策略将对您的站点产生重要的影响。缓存使得您可以在保证服务同样内容的同时减少带宽的使用。您的服务器因此可以靠同样的硬件处理更多的流量。或许更重要的是,客户们能在您的网站中获得更快的体验,这会使得他们更愿意频繁的访问您的站点。尽管有效的Web缓存并不是银弹,但设置合适的缓存策略会使您以最小的代价获得可观的收获。
---
via: <https://www.digitalocean.com/community/tutorials/web-caching-basics-terminology-http-headers-and-caching-strategies>
作者: [Justin Ellingwood](https://www.digitalocean.com/community/users/jellingwood) 译者:[wwy-hust](https://github.com/wwy-hust) 校对:[wxy](https://github.com/wxy) 推荐:[royaso](https://github.com/royaso)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 200 | OK | Intelligent content caching is one of the most effective ways to improve the experience for your site’s visitors. Caching, or temporarily storing content from previous requests, is part of the core content delivery strategy implemented within the HTTP protocol. Components throughout the delivery path can all cache items to speed up subsequent requests, subject to the caching policies declared for the content.
In this guide, we will discuss some of the basic concepts of web content caching. This will mainly cover how to select caching policies to ensure that caches throughout the internet can correctly process your content. We will talk about the benefits that caching affords, the side effects to be aware of, and the different strategies to employ to provide the best mixture of performance and flexibility.
Caching is the term for storing reusable responses in order to make subsequent requests faster. There are many different types of caching available, each of which has its own characteristics. Application caches and memory caches are both popular for their ability to speed up certain responses.
Web caching, the focus of this guide, is a different type of cache. Web caching is a core design feature of the HTTP protocol meant to minimize network traffic while improving the perceived responsiveness of the system as a whole. Caches are found at every level of a content’s journey from the original server to the browser.
Web caching works by caching the HTTP responses for requests according to certain rules. Subsequent requests for cached content can then be fulfilled from a cache closer to the user instead of sending the request all the way back to the web server.
Effective caching aids both content consumers and content providers. Some of the benefits that caching brings to content delivery are:
When dealing with caching, there are a few terms that you are likely to come across that might be unfamiliar. Some of the more common ones are below:
There are plenty of other caching terms, but the ones above should help you get started.
Certain content lends itself more readily to caching than others. Some very cache-friendly content for most sites are:
These tend to change infrequently, so they can benefit from being cached for longer periods of time.
Some items that you have to be careful in caching are:
Some items that should almost never be cached are:
In addition to the above general rules, it’s possible to specify policies that allow you to cache different types of content appropriately. For instance, if authenticated users all see the same view of your site, it may be possible to cache that view anywhere. If authenticated users see a user-sensitive view of the site that will be valid for some time, you may tell the user’s browser to cache, but tell any intermediary caches not to store the view.
Content can be cached at many different points throughout the delivery chain:
Each of these locations can and often do cache items according to their own caching policies and the policies set at the content origin.
Caching policy is dependent upon two different factors. The caching entity itself gets to decide whether or not to cache acceptable content. It can decide to cache less than it is allowed to cache, but never more.
The majority of caching behavior is determined by the caching policy, which is set by the content owner. These policies are mainly articulated through the use of specific HTTP headers.
Through various iterations of the HTTP protocol, a few different cache-focused headers have arisen with varying levels of sophistication. The ones you probably still need to pay attention to are below:
`Expires`
`Expires`
header is very straight-forward, although fairly limited in scope. Basically, it sets a time in the future when the content will expire. At this point, any requests for the same content will have to go back to the origin server. This header is probably best used only as a fall back.`Cache-Control`
`Expires`
header. It is well supported and implements a much more flexible design. In almost all cases, this is preferable to `Expires`
, but it may not hurt to set both values. We will discuss the specifics of the options you can set with `Cache-Control`
a bit later.`Etag`
`Etag`
header is used with cache validation. The origin can provide a unique `Etag`
for an item when it initially serves the content. When a cache needs to validate the content it has on-hand upon expiration, it can send back the `Etag`
it has for the content. The origin will either tell the cache that the content is the same, or send the updated content (with the new `Etag`
).`Last-Modified`
`Content-Length`
`Content-Length`
header is important to set when defining caching policies. Certain software will refuse to cache content if it does not know in advanced the size of the content it will need to reserve space for.`Vary`
`Vary`
header can be used to tell caches to pay attention to an additional header when deciding whether a request is for the same item. This is most commonly used to tell caches to key by the `Accept-Encoding`
header as well, so that the cache will know to differentiate between compressed and uncompressed content.The `Vary`
header provides you with the ability to store different versions of the same content at the expense of diluting the entries in the cache.
In the case of `Accept-Encoding`
, setting the `Vary`
header allows for a critical distinction to take place between compressed and uncompressed content. This is needed to correctly serve these items to browsers that cannot handle compressed content and is necessary in order to provide basic usability. One characteristic that tells you that `Accept-Encoding`
may be a good candidate for `Vary`
is that it only has two or three possible values.
Items like `User-Agent`
might at first glance seem to be a good way to differentiate between mobile and desktop browsers to serve different versions of your site. However, since `User-Agent`
strings are non-standard, the result will likely be many versions of the same content on intermediary caches, with a very low cache hit ratio. The `Vary`
header should be used sparingly, especially if you do not have the ability to normalize the requests in intermediate caches that you control (which may be possible, for instance, if you leverage a content delivery network).
Above, we mentioned how the `Cache-Control`
header is used for modern cache policy specification. A number of different policy instructions can be set using this header, with multiple instructions being separated by commas.
Some of the `Cache-Control`
options you can use to dictate your content’s caching policy are:
`no-cache`
`no-store`
`public`
`private`
by default. This header overrides that setting.`private`
`private`
. Private content may be stored by the user’s browser, but must `max-age`
`Expires`
header for modern browsing and is the basis for determining a piece of content’s freshness. This option takes its value in seconds with a maximum valid freshness time of one year (31536000 seconds).`s-maxage`
`max-age`
setting, in that it indicates the amount of time that the content can be cached. The difference is that this option is applied only to intermediary caches. Combining this with the above allows for more flexible policy construction.`must-revalidate`
`max-age`
, `s-maxage`
or the `Expires`
header must be obeyed strictly. Stale content cannot be served under any circumstance. This prevents cached content from being used in case of network interruptions and similar scenarios.`proxy-revalidate`
`no-transform`
These can be combined in different ways to achieve various caching behavior. Some mutually exclusive values are:
`no-cache`
, `no-store`
, and the regular caching behavior indicated by absence of either`public`
and `private`
The `no-store`
option supersedes the `no-cache`
if both are present. For responses to unauthenticated requests, `public`
is implied. For responses to authenticated requests, `private`
is implied. These can be overridden by including the opposite option in the `Cache-Control`
header.
In a perfect world, everything could be cached aggressively and your servers would only be contacted to validate content occasionally. This doesn’t often happen in practice though, so you should try to set some sane caching policies that aim to balance between implementing long-term caching and responding to the demands of a changing site.
There are many situations where caching cannot or should not be implemented due to how the content is produced (dynamically generated per user) or the nature of the content (sensitive banking information, for example). Another problem that many administrators face when setting up caching is the situation where older versions of your content are out in the wild, not yet stale, even though new versions have been published.
These are both frequently encountered issues that can have serious impacts on cache performance and the accuracy of content you are serving. However, we can mitigate these issues by developing caching policies that anticipate these problems.
While your situation will dictate the caching strategy you use, the following recommendations can help guide you towards some reasonable decisions.
There are certain steps that you can take to increase your cache hit ratio before worrying about the specific headers you use. Some ideas are:
In terms of selecting the correct headers for different items, the following can serve as a general reference:
`no-cache`
or `no-store`
options can be set in the `Cache-Control`
header to achieve this.`Etag`
and the `Last-Modified`
headers allow caches to validate their content and re-serve it if it has not been modified at the origin, further reducing load.The key is to strike a balance that favors aggressive caching where possible while leaving opportunities to invalidate entries in the future when changes are made. Your site will likely have a combination of:
The goal is to move content into the first categories when possible while maintaining an acceptable level of accuracy.
Taking the time to ensure that your site has proper caching policies in place can have a significant impact on your site. Caching allows you to cut down on the bandwidth costs associated with serving the same content repeatedly. Your server will also be able to handle a greater amount of traffic with the same hardware. Perhaps most importantly, clients will have a faster experience on your site, which may lead them to return more frequently. While effective web caching is not a silver bullet, setting up appropriate caching policies can give you measurable gains with minimal work.
Thanks for learning with the DigitalOcean Community. Check out our offerings for compute, storage, networking, and managed databases.
This textbox defaults to using **Markdown** to format your answer.
You can type **!ref** in this text area to quickly search our full set of tutorials, documentation & marketplace offerings and insert the link!
Sign up for Infrastructure as a Newsletter.
Working on improving health and education, reducing inequality, and spurring economic growth? We'd like to help.
Get paid to write technical tutorials and select a tech-focused charity to receive a matching donation.
This is amazing, thanks for taking the time to share this info, Justin. I’ve been working with web for the last couple of years and the caching thing has always been a bit of a grey area for me (A grey area you’ve just helped to clear up).
Great one. Thanks.
Excellent article. Thanks!
This comment has been deleted |
5,457 | 走进Linux之systemd启动过程 | http://linoxide.com/linux-how-to/systemd-boot-process/ | 2015-05-17T20:33:00 | [
"systemd"
] | /article-5457-1.html | Linux系统的启动方式有点复杂,而且总是有需要优化的地方。传统的Linux系统启动过程主要由著名的init进程(也被称为SysV init启动系统)处理,而基于init的启动系统被认为有效率不足的问题,systemd是Linux系统机器的另一种启动方式,宣称弥补了以[传统Linux SysV init](http://0pointer.de/blog/projects/self-documented-boot.html)为基础的系统的缺点。在这里我们将着重讨论systemd的特性和争议,但是为了更好地理解它,也会看一下通过传统的以SysV init为基础的系统的Linux启动过程是什么样的。友情提醒一下,systemd仍然处在测试阶段,而未来发布的Linux操作系统也正准备用systemd启动管理程序替代当前的启动过程(LCTT 译注:截止到本文发表,主流的Linux发行版已经有很多采用了 systemd)。
### 理解Linux启动过程
在我们打开Linux电脑的电源后第一个启动的进程就是init。分配给init进程的PID是1。它是系统其他所有进程的父进程。当一台Linux电脑启动后,处理器会先在系统存储中查找BIOS,之后BIOS会检测系统资源然后找到第一个引导设备,通常为硬盘,然后会查找硬盘的主引导记录(MBR),然后加载到内存中并把控制权交给它,以后的启动过程就由MBR控制。
主引导记录会初始化引导程序(Linux上有两个著名的引导程序,GRUB和LILO,80%的Linux系统在用GRUB引导程序),这个时候GRUB或LILO会加载内核模块。内核会马上查找/sbin下的“init”程序并执行它。从这里开始init成为了Linux系统的父进程。init读取的第一个文件是/etc/inittab,通过它init会确定我们Linux操作系统的运行级别。它会从文件/etc/fstab里查找分区表信息然后做相应的挂载。然后init会启动/etc/init.d里指定的默认启动级别的所有服务/脚本。所有服务在这里通过init一个一个被初始化。在这个过程里,init每次只启动一个服务,所有服务/守护进程都在后台执行并由init来管理。
关机过程差不多是相反的过程,首先init停止所有服务,最后阶段会卸载文件系统。
以上提到的启动过程有一些不足的地方。而用一种更好的方式来替代传统init的需求已经存在很长时间了。也产生了许多替代方案。其中比较著名的有Upstart,Epoch,Muda和Systemd。而Systemd获得最多关注并被认为是目前最佳的方案。
### 理解Systemd
开发Systemd的主要目的就是减少系统引导时间和计算开销。Systemd(系统管理守护进程),最开始以GNU GPL协议授权开发,现在已转为使用GNU LGPL协议,它是如今讨论最热烈的引导和服务管理程序。如果你的Linux系统配置为使用Systemd引导程序,它取替传统的SysV init,启动过程将交给systemd处理。Systemd的一个核心功能是它同时支持SysV init的后开机启动脚本。
Systemd引入了并行启动的概念,它会为每个需要启动的守护进程建立一个套接字,这些套接字对于使用它们的进程来说是抽象的,这样它们可以允许不同守护进程之间进行交互。Systemd会创建新进程并为每个进程分配一个控制组(cgroup)。处于不同控制组的进程之间可以通过内核来互相通信。[systemd处理开机启动进程](http://0pointer.de/blog/projects/self-documented-boot.html)的方式非常漂亮,和传统基于init的系统比起来优化了太多。让我们看下Systemd的一些核心功能。
* 和init比起来引导过程简化了很多
* Systemd支持并发引导过程从而可以更快启动
* 通过控制组来追踪进程,而不是PID
* 优化了处理引导过程和服务之间依赖的方式
* 支持系统快照和恢复
* 监控已启动的服务;也支持重启已崩溃服务
* 包含了systemd-login模块用于控制用户登录
* 支持加载和卸载组件
* 低内存使用痕迹以及任务调度能力
* 记录事件的Journald模块和记录系统日志的syslogd模块
Systemd同时也清晰地处理了系统关机过程。它在/usr/lib/systemd/目录下有三个脚本,分别叫systemd-halt.service,systemd-poweroff.service,systemd-reboot.service。这几个脚本会在用户选择关机,重启或待机时执行。在接收到关机事件时,systemd首先卸载所有文件系统并停止所有内存交换设备,断开存储设备,之后停止所有剩下的进程。
![](/data/attachment/album/201505/17/203724enh95nh9idhkyglc.jpg)
### Systemd结构概览
让我们看一下Linux系统在使用systemd作为引导程序时的开机启动过程的结构性细节。为了简单,我们将在下面按步骤列出来这个过程:
**1.** 当你打开电源后电脑所做的第一件事情就是BIOS初始化。BIOS会读取引导设备设定,定位并传递系统控制权给MBR(假设硬盘是第一引导设备)。
**2.** MBR从Grub或LILO引导程序读取相关信息并初始化内核。接下来将由Grub或LILO继续引导系统。如果你在grub配置文件里指定了systemd作为引导管理程序,之后的引导过程将由systemd完成。Systemd使用“target”来处理引导和服务管理过程。这些systemd里的“target”文件被用于分组不同的引导单元以及启动同步进程。
**3.** systemd执行的第一个目标是**default.target**。但实际上default.target是指向**graphical.target**的软链接。Linux里的软链接用起来和Windows下的快捷方式一样。文件Graphical.target的实际位置是/usr/lib/systemd/system/graphical.target。在下面的截图里显示了graphical.target文件的内容。
![](/data/attachment/album/201505/17/203329njlvc2p3c12el22p.png)
**4.** 在这个阶段,会启动**multi-user.target**而这个target将自己的子单元放在目录“/etc/systemd/system/multi-user.target.wants”里。这个target为多用户支持设定系统环境。非root用户会在这个阶段的引导过程中启用。防火墙相关的服务也会在这个阶段启动。
![](/data/attachment/album/201505/17/203329k5cv7y6cl6rsfofz.png)
"multi-user.target"会将控制权交给另一层“**basic.target**”。
![](/data/attachment/album/201505/17/203330e173g84w17qkg3kc.png)
**5.** "basic.target"单元用于启动普通服务特别是图形管理服务。它通过/etc/systemd/system/basic.target.wants目录来决定哪些服务会被启动,basic.target之后将控制权交给**sysinit.target**.
![](/data/attachment/album/201505/17/203330av1cz6zs3us8cyzs.png)
**6.** "sysinit.target"会启动重要的系统服务例如系统挂载,内存交换空间和设备,内核补充选项等等。sysinit.target在启动过程中会传递给**local-fs.target**。这个target单元的内容如下面截图里所展示。
![](/data/attachment/album/201505/17/203331k66nojnty66466na.png)
**7.** local-fs.target,这个target单元不会启动用户相关的服务,它只处理底层核心服务。这个target会根据/etc/fstab和/etc/inittab来执行相关操作。
### 系统引导性能分析
Systemd提供了工具用于识别和定位引导相关的问题或性能影响。**Systemd-analyze**是一个内建的命令,可以用来检测引导过程。你可以找出在启动过程中出错的单元,然后跟踪并改正引导组件的问题。在下面列出一些常用的systemd-analyze命令。
**systemd-analyze time** 用于显示内核和普通用户空间启动时所花的时间。
```
$ systemd-analyze time
Startup finished in 1440ms (kernel) + 3444ms (userspace)
```
**systemd-analyze blame** 会列出所有正在运行的单元,按从初始化开始到当前所花的时间排序,通过这种方式你就知道哪些服务在引导过程中要花较长时间来启动。
```
$ systemd-analyze blame
2001ms mysqld.service
234ms httpd.service
191ms vmms.service
```
**systemd-analyze verify** 显示在所有系统单元中是否有语法错误。
**systemd-analyze plot** 可以用来把整个引导过程写入一个SVG格式文件里。整个引导过程非常长不方便阅读,所以通过这个命令我们可以把输出写入一个文件,之后再查看和分析。下面这个命令就是做这个。
```
systemd-analyze plot > boot.svg
```
### Systemd的争议
Systemd并没有幸运地获得所有人的青睐,一些专家和管理员对于它的工作方式和开发有不同意见。根据对于Systemd的批评,它不是“类Unix”方式因为它试着替换一些系统服务。一些专家也不喜欢使用二进制配置文件的想法。据说编辑systemd配置非常困难而且没有一个可用的图形工具。
### 如何在Ubuntu 14.04和12.04上测试Systemd
本来,Ubuntu决定从Ubuntu 16.04 LTS开始使用Systemd来替换当前的引导过程。Ubuntu 16.04预计在2016年4月发布,但是考虑到Systemd的流行和需求,刚刚发布的**Ubuntu 15.04**采用它作为默认引导程序。另外,Ubuntu 14.04 Trusty Tahr和Ubuntu 12.04 Precise Pangolin的用户可以在他们的机器上测试Systemd。测试过程并不复杂,你所要做的只是把相关的PPA包含到系统中,更新仓库并升级系统。
**声明**:请注意它仍然处于Ubuntu的测试和开发阶段。升级测试包可能会带来一些未知错误,最坏的情况下有可能损坏你的系统配置。请确保在尝试升级前已经备份好重要数据。
在终端里运行下面的命令来添加PPA到你的Ubuntu系统里:
```
sudo add-apt-repository ppa:pitti/systemd
```
你将会看到警告信息因为我们尝试使用临时/测试PPA,而它们是不建议用于实际工作机器上的。
![](/data/attachment/album/201505/17/203331gq30tzrtjo23tq3r.png)
然后运行下面的命令更新APT包管理仓库。
```
sudo apt-get update
```
![](/data/attachment/album/201505/17/203332uzqvf52rqfipfd2a.png)
运行下面的命令升级系统。
```
sudo apt-get dist-upgrade
```
![](/data/attachment/album/201505/17/203332aisj9qis2bs2e9me.png)
就这些,你应该已经可以在你的Ubuntu系统里看到Systemd配置文件了,打开/lib/systemd/目录可以看到这些文件。
好吧,现在让我们编辑一下grub配置文件指定systemd作为默认引导程序。可以使用Gedit文字编辑器编辑grub配置文件。
```
sudo gedit /etc/default/grub
```
![](/data/attachment/album/201505/17/203333vrrl22jpktsrxljh.png)
在文件里修改GRUB*CMDLINE*LINUX\_DEFAULT项,设定它的参数为:“**init=/lib/systemd/systemd**”
![](/data/attachment/album/201505/17/203334udokzqhbzrqw7kbl.png)
就这样,你的Ubuntu系统已经不再使用传统的引导程序了,改为使用Systemd管理器。重启你的机器然后查看systemd引导过程吧。
![](/data/attachment/album/201505/17/203337oocokqr0rrd7g343.png)
### 结论
Systemd毫无疑问为改进Linux引导过程前进了一大步;它包含了一套漂亮的库和守护进程配合工作来优化系统引导和关闭过程。许多Linux发行版正准备将它作为自己的正式引导程序。在以后的Linux发行版中,我们将有望看到systemd开机。但是另一方面,为了获得成功并广泛应用,systemd仍需要认真处理批评意见。
---
via: <http://linoxide.com/linux-how-to/systemd-boot-process/>
作者:[Aun Raza](http://linoxide.com/author/arunrz/) 译者:[zpl1025](https://github.com/zpl1025) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/systemd-boot-process/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c4d30>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,458 | 怎样在Github上托管开源代码库 | http://linoxide.com/usr-mgmt/host-open-source-code-repository-github/ | 2015-05-18T07:44:00 | [
"Github"
] | /article-5458-1.html | 大家好,今天我们要学习一下怎样在github.com提供的仓库中托管开源软件源代码。GitHub是一个基于web的Git仓库托管服务,提供基于 git 的分布式版本控制和源代码管理(SCM)功能,并加入了自身的特点。它给开源项目和私有项目提供了一个互相协作的工作区、代码预览和代码管理功能。不像Git是一个完完全全的命令行工具,GitHub提供了一个基于web的图形化界面和桌面,也整合了手机操作。GitHub同时提供了私有库付费计划和通常用来管理开源软件项目的免费账号。
![github universe logo](/data/attachment/album/201505/17/214634lvbs7gq1s9njsgqn.jpg)
这是一种快速灵活,基于web的托管服务,它使用方便,管理分布式版本控制系统也是相当容易,任何人都能将他们的软件源代码托管到 github,让全球各地数以百万计的人可以使用它、参与贡献、共享它、进行问题跟踪以及更多的用途。这里有一些简单快速地托管软件源代码的方法。
### 1. 创建一个新的Github账号
首先,打开你最喜欢的浏览器并访问[github](http://github.com/),首页页面如下所示。
![Github Homepage](/data/attachment/album/201505/17/214637t9t94gtlij933il5.png)
现在,首页打开之后,请填写一个新的github账号用于注册。
输入注册所需的有效信息之后,你会被转到计划选择的步骤。在这个页面上有5种计划,我们可以根据需要来选择,这里我们要选择免费计划。所以,我们点击选择Free计划并完成注册。如果我们接下去还打算创建一个组织,那我们需要勾选“Help me setup an organization next”。
![choosing plan](/data/attachment/album/201505/17/214638fxix64x9y4or9jeu.png)
### 2. 创建一个新的库
成功注册新账号或登录上Github之后,我们需要创建一个新的库来开始我们的征程。
点击位于顶部靠右账号id旁边的**(+)**按钮,然后点击“New Repository”。
![Add new repository](/data/attachment/album/201505/17/214640bebhh1e6lqht5k4h.png)
点击创建一个新的库之后,我们进入了填写所需信息的页面。
![adding repository information](/data/attachment/album/201505/17/214641k3zuu49bk9srub9e.png)
填写好信息之后,我们点击绿色的“Create repository”按钮。
这些步骤都做完之后,我们将看到类似于下面这张图的页面。
![repository github](/data/attachment/album/201505/17/214642ajsbjjrbbba3ksew.png)
### 3. 上传一个已有项目
如果我们想在Github上分享我们的项目,我们自然要把代码推上我们创建的库中。想要这样的话,我们首先要在我们的Linux机器上安装git。如果我在机器上运行的是Ubuntu 14.04 LTS,我需要运行**apt**工具来安装它。
```
$ sudo apt-get install git
```
![installing git](/data/attachment/album/201505/17/214643u7cjjgq33cjqc7j7.png)
现在git已经准备就绪,我们要上传代码了。
**注意**:为了避免错误,不要在初始化的新库中包含**README**、license或gitignore等文件,你可以在项目推送到Github上之后再添加它们。
在终端上,我们需要切换当前工作目录为你的本地项目的目录,然后将其初始化为Git库。
```
$ git init
```
接着我们添加新的本地库里中的文件,作为我们的首次提交内容。
```
$ git add .
```
现在我们就提交我们在本地库所添加的文件。
```
$ git commit -m 'First commit'
```
![git commit](/data/attachment/album/201505/17/214644rsnnns3gfn1dld78.png)
在终端上,添加远程库的URL地址,以便我们的本地库推送到远程。
```
$ git remote add origin 远程库的URL
$ git remote -v
```
![adding remote url](/data/attachment/album/201505/17/214644sehhoprffft6avf3.png)
注意:请确保将上述“远程库的URL”替换成了你自己的远程库的URL。
现在,要将我们的本地库的改变推送至GitHub的版本库中,我们需要运行以下命令,并且输入所需的用户名和密码。
```
$ git push origin master
```
![pushing repo](/data/attachment/album/201505/17/214645t6sya0k99k9yah40.png)
### 克隆一个库
如果我们想用一条简单地命令从github上下载代码库至本机上,我们可以用git clone命令,该命令将会从远程库中克隆最新的目录。
```
$ git clone https://github.com/aruntechgeek/linspeed.git
```
![cloning repo](/data/attachment/album/201505/17/214645wwfxhzz6rwgpjh0q.png)
请把以上这条URL地址更改成你想要克隆的地址。
### 推送改动
如果我们对我们的代码做了更改并想把它们推送至我们的远程库中,我们应该在该目录下运行以下命令。
```
$ git add .
$ git commit -m "Updating"
$ git push
```
### 结论
啊哈!我们已经成功地将我们的项目源代码托管到Github的库中了。Github是快速灵活的基于web的托管服务,分布式版本控制系统使用起来方便容易。数百万个非常棒的开源项目驻扎在github上。所以,如果你有任何问题、建议或反馈,请在评论中告诉我们。谢谢大家!好好享受吧 :-)
---
via: <http://linoxide.com/usr-mgmt/host-open-source-code-repository-github/>
作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[ZTinoZ](https://github.com/ZTinoZ) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /usr-mgmt/host-open-source-code-repository-github/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c45e0>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,459 | Linux有问必答:如何安装autossh | http://ask.xmodulo.com/install-autossh-linux.html | 2015-05-18T08:50:00 | [
"autossh",
"ssh"
] | /article-5459-1.html |
>
> **提问**: 我打算在linux上安装autossh,我应该怎么做呢?
>
>
>
[autossh](http://www.harding.motd.ca/autossh/) 是一款开源工具,可以帮助管理SSH会话、自动重连和停止转发流量。autossh会假定目标主机已经设定[无密码SSH登陆](/article-5444-1.html),以便autossh可以重连断开的SSH会话而不用用户操作。
只要你建立[反向SSH隧道](http://xmodulo.com/access-linux-server-behind-nat-reverse-ssh-tunnel.html)或者[挂载基于SSH的远程文件夹](http://xmodulo.com/how-to-mount-remote-directory-over-ssh-on-linux.html),autossh迟早会派上用场。基本上只要需要维持SSH会话,autossh肯定是有用的。
![](/data/attachment/album/201505/17/215215bc3pbceqljuqehue.jpg)
下面有许多linux发行版autossh的安装方法。
### Debian 或 Ubuntu 系统
autossh已经加入基于Debian系统的基础库,所以可以很方便的安装。
```
$ sudo apt-get install autossh
```
### Fedora 系统
Fedora库同样包含autossh包,使用yum安装。
```
$ sudo yum install autossh
```
### CentOS 或 RHEL 系统
CentOS/RHEL 6 或早期版本, 需要开启第三库[Repoforge库](http://xmodulo.com/how-to-set-up-rpmforge-repoforge-repository-on-centos.html), 然后才能使用yum安装.
```
$ sudo yum install autossh
```
CentOS/RHEL 7以后,autossh 已经不在Repoforge库中. 你需要从源码编译安装(例子在下面)。
### Arch Linux 系统
```
$ sudo pacman -S autossh
```
### Debian 或 Ubuntu 系统中从源码编译安装
如果你想要使用最新版本的autossh,你可以自己编译源码安装
```
$ sudo apt-get install gcc make
$ wget http://www.harding.motd.ca/autossh/autossh-1.4e.tgz
$ tar -xf autossh-1.4e.tgz
$ cd autossh-1.4e
$ ./configure
$ make
$ sudo make install
```
### CentOS, Fedora 或 RHEL 系统中从源码编译安装
在CentOS/RHEL 7以后,autossh不在是预编译包。所以你不得不从源码编译安装。
```
$ sudo yum install wget gcc make
$ wget http://www.harding.motd.ca/autossh/autossh-1.4e.tgz
$ tar -xf autossh-1.4e.tgz
$ cd autossh-1.4e
$ ./configure
$ make
$ sudo make install
```
---
via: <http://ask.xmodulo.com/install-autossh-linux.html>
作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[Vic020/VicYu](http://vicyu.net) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /install-autossh-linux.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c68c0>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)")) | null |
5,460 | LFTP : 一个功能强大的命令行FTP程序 | http://linoxide.com/linux-how-to/setup-lftp-command-line-ftp/ | 2015-05-17T10:11:00 | [
"lftp",
"ftp"
] | /article-5460-1.html | 大家好,这篇文章是介绍Lftp以及如何在Linux操作系统下安装的。[Lftp](http://lftp.yar.ru/)是一个基于命令行的文件传输软件(也被称为FTP客户端),由Alexander Lukyanov开发并以GNU GPL协议许可发行。除了FTP协议外,它还支持FTPS,HTTP,HTTPS,HFTP,FISH,以及SFTP等协议。这个程序还支持FXP,允许数据绕过客户端直接在两个FTP服务器之间传输。
它有很多很棒的高级功能,比如递归镜像整个目录树以及断点续传下载。传输任务可以安排在稍后的时间段计划执行,可以限制带宽,可以创建传输列表,还支持类似Unix shell的任务控制。客户端还可以在交互式或自动脚本里使用。
![](/data/attachment/album/201505/17/221607sacuohcimiuyfv7m.png)
### 安装Lftp
在运行lftp之前,我们需要确定它已经正确安装在我们的Linux发行版中了。下面是在常见Linux发行版中安装lftp的一些命令。
**Ubuntu 14.04 LTS**
在Ubuntu 14.04 LTS以及它的衍生版中,我们可以通过apt管理程序安装lftp。要安装它,我们需要使用sudo权限在shell或终端里运行下面的命令。
```
$ sudo apt-get install lftp
```
![ubuntu install lftp](/data/attachment/album/201505/17/221609akd50y6xn01d1z3x.png)
**CentOS/Fedora/RHEL**
因为在Fedora,CentOS和RHEL的软件仓库里也能找到lftp,我们可以用**yum**管理程序来安装它。
```
$ sudo yum install lftp
```
![fedora lftp](/data/attachment/album/201505/17/221609jlfbl8fkfbkbpmnw.png)
**Arch Linux**
在Arch Linux安装包仓库里也有,我们可以简单地使用pacman来安装它。
```
$ sudo pacman -S lftp
```
![archlinux install lftp](/data/attachment/album/201505/17/221610ot8oz8s8bsl8s88y.png)
**OpenSuse**
OpenSuse系统里的包管理软件Zypper可以用来安装lftp。下面是在OpenSuse机器上用来安装的命令。
```
$ sudo zypper install lftp
```
![opensuse lftp install](/data/attachment/album/201505/17/221612ds5y197lzbzrytb1.png)
### 登录
要登录到ftp服务器或sftp服务器,我们首先需要知道所要求的认证信息,比如用户名,密码,端口。
之后,我们可以通过lftp来登录。
```
$ lftp ftp://linoxide@localhost
```
![ftp login](/data/attachment/album/201505/17/221612cg2zxg981161ugua.png)
如果需要指定登录端口,我们可以按下面的方式加上去。
```
$ lftp ftp://linoxide@localhost:21
```
![ftp login with ports](/data/attachment/album/201505/17/221613p028lb3095k3ivss.png)
### 导航
我们可以用**ls**命令来列出文件和目录,用**cd**命令进入到目录。
![ls and cd](/data/attachment/album/201505/17/221614n4mq444pmq9ma7a2.png)
### 上传和下载文件
我们可以用**pget**命令来从远端服务器下载文件。
```
> pget linspeed.svg
```
![pget lftp](/data/attachment/album/201505/17/221614n6k55wp5mbnm6n96.png)
我们可以用**put**命令来上传文件到远端服务器。
```
> put linoxide.tar
```
![upload with put](/data/attachment/album/201505/17/221615r1njnrenawyyid1q.png)
要恢复之前只下载了一部分的文件/目录,我们可以用-c开关:
```
> mirror -c Directory
>pget -c linoxide.tar
> put -c upload.tar
```
### 使用镜像命令
我们可以用mirror命令来下载所指定的整个目录。
```
> mirror remote local
```
![download with mirror](/data/attachment/album/201505/17/221615nck17xvkcl311c7c.png)
还可以做反向镜像(mirror -R),可以用来上传或更新本地目录树到服务器上。
```
> mirror -R local remote
```
![upload or update with mirror reverse](/data/attachment/album/201505/17/221616yovtrfvivii7till.png)
要恢复之前下载了一部分的文件/目录,我们可以用-c开关:
```
> mirror -c Directory
```
### 下载队列
我们可以在lftp里使用queue的选项,这样我们可以像基于GUI的客户端那样挨个下载队列里选择的文件。下面举个例子。
为了避免队列自动开始传输,我们可以这样做:
```
> queue stop
```
现在,我们添加任务到队列。
```
> queue mirror "directory"
> queue pget "file.tar"
```
在建立好队列后,我们再运行queue start命令。
```
> queue start
```
可以运行下面的命令移除整个队列。
```
> queue -d
```
### 分块下载
下面是一个把一个文件分成3块来下载的例子,你可以根据自己的需要调整。
使用pget命令分块功能的方式是**pget -n 3 file.tar**,里面的3是分块的数目。
```
> pget -n 3 file.tar
```
使用mirror命令分块功能的方式是**mirror --use-pget-n=3 directory**,里面的3是分块的数目。
```
> mirror --use-pget-n=3 linxoxide
```
我们可以用jobs -v命令来查看每个独立分块的下载速度以及整体速度。
### 停止,继续或删除一次传输任务
要取消传输我们可以按下Ctrl+C。而要恢复下载我们可以像下面那样使用-c (--continue)开关。
```
> mirror -c directory
```
要删除一次正在正在传输的任务我们可以用**kill**命令,而要删除所有任务我们可以使用下面那样的**kill all**命令。
```
> kill
> kill all
```
### 退出
要从lftp退出,我们需要在终端或lftp交互接口中运行exit命令。
```
> exit
```
### 总结
哇!我们已经成功地安装了lftp并学会了它的一些基础的主要使用方式。lftp是一个非常棒的命令行ftp客户端,它支持许多额外的功能以及很酷的特性。它比其他普通ftp客户端多了很多东西。好吧,你要是有任何问题,建议,反馈,请在下面的评论区里留言。谢谢!享用lftp吧 :-)
---
via: <http://linoxide.com/linux-how-to/setup-lftp-command-line-ftp/>
作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[zpl1025](https://github.com/zpl1025) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/setup-lftp-command-line-ftp/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c6f50>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,461 | 又一波你可能不知道的 Linux 命令行网络监控工具 | http://xmodulo.com/useful-command-line-network-monitors-linux.html | 2015-05-18T10:17:51 | [
"网络监控"
] | https://linux.cn/article-5461-1.html | 对任何规模的业务来说,网络监控工具都是一个重要的功能。网络监控的目标可能千差万别。比如,监控活动的目标可以是保证长期的网络服务、安全保护、对性能进行排查、网络使用统计等。由于它的目标不同,网络监控器使用很多不同的方式来完成任务。比如对包层面的嗅探,对数据流层面的统计数据,向网络中注入探测的流量,分析服务器日志等。
尽管有许多专用的网络监控系统可以365天24小时监控,但您依旧可以在特定的情况下使用命令行式的网络监控器,某些命令行式的网络监控器在某方面很有用。如果您是系统管理员,那您就应该有亲身使用一些知名的命令行式网络监控器的经历。这里有一份**Linux上流行且实用的网络监控器**列表。
### 包层面的嗅探器
在这个类别下,监控工具在链路上捕捉独立的包,分析它们的内容,展示解码后的内容或者包层面的统计数据。这些工具在最底层对网络进行监控、管理,同样的也能进行最细粒度的监控,其代价是影响网络I/O和分析的过程。
1. **dhcpdump**:一个命令行式的DHCP流量嗅探工具,捕捉DHCP的请求/回复流量,并以用户友好的方式显示解码的DHCP协议消息。这是一款排查DHCP相关故障的实用工具。
2. **[dsniff](http://www.monkey.org/%7Edugsong/dsniff/)**:一个基于命令行的嗅探、伪造和劫持的工具合集,被设计用于网络审查和渗透测试。它可以嗅探多种信息,比如密码、NSF流量(LCTT 译注:此处疑为 NFS 流量)、email消息、网络地址等。
3. **[httpry](http://xmodulo.com/monitor-http-traffic-command-line-linux.html)**:一个HTTP报文嗅探器,用于捕获、解码HTTP请求和回复报文,并以用户友好的方式显示这些信息。(LCTT 译注:[延伸阅读](/article-4148-1.html)。 )
4. **IPTraf**:基于命令行的网络统计数据查看器。它实时显示包层面、连接层面、接口层面、协议层面的报文/字节数。抓包过程由协议过滤器控制,且操作过程全部是菜单驱动的。(LCTT 译注:[延伸阅读](/article-5430-1.html)。)
![](/data/attachment/album/201505/18/101754ugyyggg8wgyqie4p.jpg)
5. **[mysql-sniffer](https://github.com/zorkian/mysql-sniffer)**:一个用于抓取、解码MySQL请求相关的数据包的工具。它以可读的方式显示最频繁或全部的请求。
6. **[ngrep](http://ngrep.sourceforge.net/)**:在网络报文中执行grep。它能实时抓取报文,并用正则表达式或十六进制表达式的方式匹配(过滤)报文。它是一个可以对异常流量进行检测、存储或者对实时流中特定模式报文进行抓取的实用工具。
7. **[p0f](http://lcamtuf.coredump.cx/p0f3/)**:一个被动的基于包嗅探的指纹采集工具,可以可靠地识别操作系统、NAT或者代理设置、网络链路类型以及许多其它与活动的TCP连接相关的属性。
8. **pktstat**:一个命令行式的工具,通过实时分析报文,显示连接带宽使用情况以及相关的协议(例如,HTTP GET/POST、FTP、X11)等描述信息。
![](/data/attachment/album/201505/18/101755t7prrr5ppp5peeep.jpg)
9. **Snort**:一个入侵检测和预防工具,通过规则驱动的协议分析和内容匹配,来检测/预防活跃流量中各种各样的后门、僵尸网络、网络钓鱼、间谍软件攻击。
10. **tcpdump**:一个命令行的嗅探工具,可以基于过滤表达式抓取网络中的报文,分析报文,并且在包层面输出报文内容以便于包层面的分析。他在许多网络相关的错误排查、网络程序debug、或[安全](http://xmodulo.com/recommend/firewallbook)监测方面应用广泛。
11. **tshark**:一个与Wireshark窗口程序一起使用的命令行式的嗅探工具。它能捕捉、解码网络上的实时报文,并能以用户友好的方式显示其内容。
### 流/进程/接口层面的监控
在这个分类中,网络监控器通过把流量按照流、相关进程或接口分类,收集每个流、每个进程、每个接口的统计数据。其信息的来源可以是libpcap抓包库或者sysfs内核虚拟文件系统。这些工具的监控成本很低,但是缺乏包层面的检视能力。
1. **bmon**:一个基于命令行的带宽监测工具,可以显示各种接口相关的信息,不但包括接收/发送的总量/平均值统计数据,而且拥有历史带宽使用视图。
![](/data/attachment/album/201505/18/101758jgecl00mgvhezwve.jpg)
2. **[iftop](http://xmodulo.com/how-to-install-iftop-on-linux.html)**:一个带宽使用监测工具,可以实时显示某个网络连接的带宽使用情况。它对所有带宽使用情况排序并通过ncurses的接口来进行可视化。他可以方便的监控哪个连接消耗了最多的带宽。(LCTT 译注:[延伸阅读](/article-1843-1.html)。)
3. **nethogs**:一个基于ncurses显示的进程监控工具,提供进程相关的实时的上行/下行带宽使用信息。它对检测占用大量带宽的进程很有用。(LCTT 译注:[延伸阅读](/article-2808-1.html)。)
4. **netstat**:一个显示许多TCP/UDP的网络堆栈的统计信息的工具。诸如打开的TCP/UDP连接书、网络接口发送/接收、路由表、协议/套接字的统计信息和属性。当您诊断与网络堆栈相关的性能、资源使用时它很有用。
5. **[speedometer](https://excess.org/speedometer/)**:一个可视化某个接口发送/接收的带宽使用的历史趋势,并且基于ncurses的条状图进行显示的终端工具。
![](/data/attachment/album/201505/18/101759yf6jfzptc25swgr6.jpg)
6. **[sysdig](http://xmodulo.com/monitor-troubleshoot-linux-server-sysdig.html)**:一个可以通过统一的界面对各个Linux子系统进行系统级综合性调试的工具。它的网络监控模块可以监控在线或离线、许多进程/主机相关的网络统计数据,例如带宽、连接/请求数等。(LCTT 译注:[延伸阅读](/article-4341-1.html)。)
7. **tcptrack**:一个TCP连接监控工具,可以显示活动的TCP连接,包括源/目的IP地址/端口、TCP状态、带宽使用等。
![](/data/attachment/album/201505/18/101759txfxlh7erbt83se8.jpg)
8. **vnStat**:一个存储并显示每个接口的历史接收/发送带宽视图(例如,当前、每日、每月)的流量监控器。作为一个后台守护进程,它收集并存储统计数据,包括接口带宽使用率和传输字节总数。(LCTT 译注:[延伸阅读](/article-5256-1.html)。)
### 主动网络监控器
不同于前面提到的被动的监听工具,这个类别的工具们在监听时会主动的“注入”探测内容到网络中,并且会收集相应的反应。监听目标包括路由路径、可供使用的带宽、丢包率、延时、抖动(jitter)、系统设置或者缺陷等。
1. **[dnsyo](http://xmodulo.com/check-dns-propagation-linux.html)**:一个DNS检测工具,能够管理跨越多达1500个不同网络的开放解析器的DNS查询。它在您检查DNS传播或排查DNS设置的时候很有用。
2. **[iperf](https://iperf.fr/)**:一个TCP/UDP带宽测量工具,能够测量两个端点间最大可用带宽。它通过在两个主机间单向或双向的输出TCP/UDP探测流量来测量可用的带宽。它在监测网络容量、调谐网络协议栈参数时很有用。一个叫做[netperf](http://www.netperf.org/netperf/)的变种拥有更多的功能及更好的统计数据。
3. **[netcat](http://xmodulo.com/useful-netcat-examples-linux.html)/socat**:通用的网络调试工具,可以对TCP/UDP套接字进行读、写或监听。它通常和其他的程序或脚本结合起来在后端对网络传输或端口进行监听。(LCTT 译注:[延伸阅读](/article-1171-1.html)。)
4. **nmap**:一个命令行的端口扫描和网络发现工具。它依赖于若干基于TCP/UDP的扫描技术来查找开放的端口、活动的主机或者在本地网络存在的操作系统。它在你审查本地主机漏洞或者建立维护所用的主机映射时很有用。[zmap](https://zmap.io/)是一个类似的替代品,是一个用于互联网范围的扫描工具。(LCTT 译注:[延伸阅读](/article-2561-1.html)。)
5. ping:一个常用的网络测试工具。通过交换ICMP的echo和reply报文来实现其功能。它在测量路由的RTT、丢包率以及检测远端系统防火墙规则时很有用。ping的变种有更漂亮的界面(例如,[noping](http://noping.cc/))、多协议支持(例如,[hping](http://www.hping.org/))或者并行探测能力(例如,[fping](http://fping.org/))。(LCTT 译注:[延伸阅读](/article-2303-1.html)。)
![](/data/attachment/album/201505/18/101800sqp76qdj6un7z76q.jpg)
6. **[sprobe](http://sprobe.cs.washington.edu/)**:一个启发式推断本地主机和任意远端IP地址之间的网络带宽瓶颈的命令行工具。它使用TCP三次握手机制来评估带宽的瓶颈。它在检测大范围网络性能和路由相关的问题时很有用。
7. **traceroute**:一个能发现从本地到远端主机的第三层路由/转发路径的网络发现工具。它发送限制了TTL的探测报文,收集中间路由的ICMP反馈信息。它在排查低速网络连接或者路由相关的问题时很有用。traceroute的变种有更好的RTT统计功能(例如,[mtr](http://xmodulo.com/better-alternatives-basic-command-line-utilities.html#mtr_link))。
### 应用日志解析器
在这个类别下的网络监测器把特定的服务器应用程序作为目标(例如,web服务器或者数据库服务器)。由服务器程序产生或消耗的网络流量通过它的日志被分析和监测。不像前面提到的网络层的监控器,这个类别的工具能够在应用层面分析和监控网络流量。
1. **[GoAccess](http://goaccess.io/)**:一个针对Apache和Nginx服务器流量的交互式查看器。基于对获取到的日志的分析,它能展示包括日访问量、最多请求、客户端操作系统、客户端位置、客户端浏览器等在内的多个实时的统计信息,并以滚动方式显示。
![](/data/attachment/album/201505/18/101800zndzxvbuaodb3zx7.jpg)
2. **[mtop](http://mtop.sourceforge.net/)**:一个面向MySQL/MariaDB服务器的命令行监控器,它可以将成本最大的查询和当前数据库服务器负载以可视化的方式显示出来。它在您优化MySQL服务器性能、调谐服务器参数时很有用。
![](/data/attachment/album/201505/18/101801e6aszkbn9k3ae7p6.jpg)
3. **[ngxtop](http://xmodulo.com/monitor-nginx-web-server-command-line-real-time.html)**:一个面向Nginx和Apache服务器的流量监测工具,能够以类似top指令的方式可视化的显示Web服务器的流量。它解析web服务器的查询日志文件并收集某个目的地或请求的流量统计信息。
### 总结
在这篇文章中,我展示了许多命令行式监测工具,从最底层的包层面的监控器到最高层应用程序层面的网络监控器。了解那个工具的作用是一回事,选择哪个工具使用又是另外一回事。单一的一个工具不能作为您每天使用的通用的解决方案。一个好的系统管理员应该能决定哪个工具更适合当前的环境。希望这个列表对此有所帮助。
欢迎您通过回复来改进这个列表的内容!
---
via: <http://xmodulo.com/useful-command-line-network-monitors-linux.html>
作者:[Dan Nanni](http://xmodulo.com/author/nanni) 译者:[wwy-hust](https://github.com/wwy-hust) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,463 | Yum 已死,DNF 代之 | http://dnf.baseurl.org/2015/05/11/yum-is-dead-long-live-dnf/ | 2015-05-19T10:31:29 | [
"Yum",
"DNF"
] | /article-5463-1.html | ![](/data/attachment/album/201505/19/103032wuu8o9ufuobmu302.png)
也许你会惊奇在新安装的 Fedroa 22中没有找到 yum 包,也不明白为何在调用 /usr/bin/yum 或使用各种 Yum 插件时会得到警告。嗯,你看到的没错,Yum 已经去了~。直白的说, DNF 现在是 Fedora 上默认是包管理器了。
DNF 由 Yum 中分支出来,采用了基于 SAT 的依赖解决算法,目标是在 Fedora 22中取代 Yum。随着 [DNF 1.0 的发布](http://dnf.baseurl.org/2015/05/11/dnf-1-0-and-dnf-plugins-core-0-1-7-released/),已经到了[取而代之](http://fedoraproject.org/wiki/Changes/ReplaceYumWithDNF)的时候了。Yum 无法适应倡导“默认即 Python 3”理念的 Fedora ,而 DNF 则可以同时支持 Python 2 和 Python 3。 DNF 按照相同的语义逻辑保留了命令行接口的一致。幸运的是,[DNF 的 Python API](http://dnf.readthedocs.org/en/latest/use_cases.html) 是完全不同于 Yum 的。这两个项目之间的所有已知的[不兼容](http://dnf.readthedocs.org/en/latest/cli_vs_yum.html)都已经记录在案了。在 Fedora Core 22 中只有 DNF,官方不会提供 Yum 了。当然,如果你愿意,可以自己下载它。这个包仍然可以如同以往一样调用, Python API 也没变化,只是 yum 程序的名称被改名为 yum-deprecated 了,而且从命令行调用 yum 会被重定向到 DNF。这样,你就可以在系统上同时维持 Yum 和 DNF 了。
启动 DNF 项目的原因是由于 Yum 的三大问题:API 缺乏文档、有问题的依赖解决算法,及无法重构内部函数。这里提到的最后一个问题,其实和文档的缺乏有关。Yum 插件使用的各种方法来源于 Yum 的代码,一旦改变有可能造成 Yum 的突然崩溃!DNF 致力于解决这些 Yum 的问题,从一开始,所有对外的 API 的要做好完备的文档。在绝大多数新提交中都包含了测试单元。不允许各种奇怪的、乱七八糟的补丁。该项目是通过敏捷开发进行的:对用户会有较大影响的需求会得到尽快的实现。
现在,DNF 团队正在移植各种流行的 Yum 插件到 DNF 上,并改进其用户体验。为了更加方便切换到 DNF,我们开发了一个 DNF 移植插件,来将 Yum 中已经安装的包、分组和事务数据导入到新的 Fedora 包管理器中。赶快转移到 DNF 吧,希望你喜欢!
Jan Silhan, by DNF team
| null | HTTPConnectionPool(host='dnf.baseurl.org', port=80): Max retries exceeded with url: /2015/05/11/yum-is-dead-long-live-dnf/ (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c5240>: Failed to resolve 'dnf.baseurl.org' ([Errno -2] Name or service not known)")) | null |
5,466 | 如何在局域网中将Ubuntu文件夹共享给Windows | http://itsfoss.com/share-folders-local-network-ubuntu-windows/ | 2015-05-19T11:40:00 | [
"共享",
"samba",
"windows"
] | https://linux.cn/article-5466-1.html | ![](/data/attachment/album/201505/19/111558e07d8t0h7jj2rr0h.jpg)
本文全面详细地向你描述了**在Ubuntu中如何实现局域网内的文件夹共享**。
你的家中是不是有多台电脑?当你需要从一台Ubuntu电脑向另一台电脑传输数据时,是不是必须用到U盘或SD卡?你是否也觉得这个方法很烦人?我想肯定是。本文的目的就是使你在局域网内快速方便地传输文件、文档和其它较大的数据,以节省你的宝贵时间。只需一次设置,然后轻点鼠标,你就可以自由地**在Ubuntu和Windows之间共享文件**,当然这对其它Linux系统同样使用。不要担心,这很容易操作,不会花费太多时间。
除此之外,尽管本文是在Ubuntu上进行实践,但这个教程在其它Linux系统上同样有用。
#### 在Ubuntu上实现局域网共享文件夹
如果你的系统是Ubuntu 14.04、14.10或12.04,有两个方法可以使你通过局域网在搭载Windows或其他Linux的电脑上共享本地文件。
* 对局域网中的每个用户提供无密码共享
* 仅限特定访问,提供文件夹密码保护
这篇文章包括两种方法,你可以选择你想用的那种。
### 1. 局域网无密码共享文件夹
#### 步骤一:
为了在Ubuntu上实现局域网共享文件夹,右键点击打算共享的文件夹,并选择“Local Network Share(本地网络共享)”:
![](/data/attachment/album/201505/19/111558q1mc6xwwrcwf5lbw.jpg)
**可能有用的故障解决方案**:如果在右键菜单中看不到“Local Network Share”的选项,那就新建一个终端,使用下面的命令去安装nautlius-share插件:
```
sudo apt-get install nautilus-share
```
然后重启Nautilus。可以选择注销再登录,或者使用这个命令:
```
nautilus -q
```
#### 步骤二:
一旦点击“Local Network Share”,就会出现共享文件夹的选项。只需选中“Share this folder(共享该文件夹)”这一项:
![](/data/attachment/album/201505/19/111559ax11c114z88zpf72.jpg)
**可能的故障解决方案**:如果提示共享服务还未安装,就像下图所示,那就点击安装服务,按照提示操作。
![](/data/attachment/album/201505/19/111559bdgu7uusmq3t5utt.jpg)
#### 步骤三:
当选中“Share this folder”的选项,就会看到按钮“Create Share(创建共享)”变得可以点击了。你也可以“Allow others to create and delete fies in this folder(允许其他用户在共享文件夹中编辑文件)”。选项“Guest access(允许访客访问)”也是如此。
![](/data/attachment/album/201505/19/111559werrhcc1g22b09pa.png)
你会看到文件夹图标已经显示为共享的。如果要停止共享文件夹,只需取消“Share this floder”这个选项。
这个方法就是这么简单,使得局域网中的任何人都可以访问共享文件夹中的文件。在正常情况下,你会选择这种方式。因为,家用局域网中的电脑通常都是可信电脑。但情况也不总是这样。如果你只是想特定的用户才能访问怎么办?这个时候就需要Samba服务器了。我们在本文的第二部分讨论这种方法。
### 2. 在Ubuntu上使用密码保护实现局域网共享文件夹
为了达到这个目的,首先需要配置Samba服务器。事实上,在这篇教程的前一部分我们已经用到了Samba,只是我们没有刻意强调。在介绍如何在Ubuntu上搭建Samba服务器实现局域网共享的方法之前,先快速预览一下[Samba](http://en.wikipedia.org/wiki/Samba_%28software%29)到底是什么。
#### Samba是什么?
Samba是一个允许用户通过网络共享文件、文档和打印机的软件包,无论是在Linux、Windows,还是Mac上。它适用于所有的主流平台,可以在所有支持系统上流畅运行。下面是维基百科的介绍:
>
> Samba是一款重新实现SMB/CIFS网络协议的自由软件,最初由安德鲁·垂鸠开发。在第三版中,Smaba不仅支持通过不同的Windows客户端访问及分享SMB的文件夹及打印机,还可以集成到Windows Server域,作为主域控制器(PDC)或者域成员。它也可以作为活动目录域的一部分。
>
>
>
#### 在Ubuntu上安装Samba服务器
你可以很方便地在Ubuntu电脑上安装Samba。安装前,请先更新系统以便安装任何可用的更新。
```
sudo apt-get update && apt-get upgrade
```
然后按照这条命令安装samba和少量所需的软件包:
```
sudo apt-get install samba samba-common system-config-samba python-glade2 gksu
```
一旦安装完成Samba服务器,就可以从图形界面配置Samba来分享文件。
#### 在Ubuntu上配置Samba服务器
从dash中打开Samba配置工具:
![](/data/attachment/album/201505/19/111559d6mlv6vfvemrfzmv.png)
进入到**Preference->Server Settings**。尽管默认已经设置好,可能就是你需要的。但在某些情况下你可能需要做一些改动。
在Server Setting中可以看到两个选项卡,‘Basic’和‘Security’。在Basic选项卡下的选项含义如下:
* 工作组 - 用户要连接的电脑所在工作组的名字。比如,如果你想连接到一台Windows电脑,你就要输入Windows电脑的工作组名字。在Windows的Samba服务器设置中,已经默认设置好统一的工作组名字。但如果你有不同的工作组名字,就在这个字段中输入自定义的工作组名字。(在Windows 7中获取工作组名字,右击计算机图标,进到属性,就能看到Windows工作组名字。)
* 描述 - 其他用户看到的你的电脑名字。不要使用空格或不适用于网络的字符。
![](/data/attachment/album/201505/19/111600s45qrhlbz4le6bld.png)
设置samba服务器允许‘Guests’可用是不明智的,所以没必要修改安全设置,保持原样即可。
![](/data/attachment/album/201505/19/111600x13pgdippyigp3xr.jpg)
这就搞定了!你已经搭建好Samba服务器,距离实现网络共享第一个文件夹的目标不远了!
#### 为网络文件共享创建一个系统用户
现在我们需要为网络共享文件创建一个系统用户。下面是非常简单的步骤:
* 在Systems Settings下点击**User Accounts**。
* 点击**unlock**使其可用,以及+(**加号**)图标。
* 点击+(加号)图标,创建一个新的系统用户。
![](/data/attachment/album/201505/19/111600agdbab0ld4hnlmmm.jpg)
如上图所示,需要输入‘Full name’。当你输入‘Full name’时,Username会自动填充为Full name。因为创建这个用户是为了共享文件,所以还要指定Account Type为‘**Standard**’。
完成上述步骤,点击添加,你就创建好一个系统用户。这个用户还没有被激活,所以需要为其设置密码来激活。确保Users accounts界面已经解锁。点击尚不可用的账户,输入一个新密码,然后确认密码,点击Change。
![](/data/attachment/album/201505/19/111601cfnu0ef4ue06kiu7.jpg)
耶!到目前为止我们已经安装并配置好Samba,已经创建了一个系统用户以通过这个账户在网络上共享文件,而且也已经激活了新用户。现在来到配置Samba的最后一步,然后就可以共享文件夹了。
#### 添加Samba新用户
打开Samba,在Preference先点击Samba Users。填写弹出的对话框,下面是其中几个字段的说明:
**Unix Username** - 在这种情况下,我选择刚才创建的用户。
**Windows Username** - 输入你要访问的Windows电脑的用户名。
**Samba Password** - 输入你要访问的Windows电脑的密码。
![](/data/attachment/album/201505/19/111601i4h4xxbgh6x3i6qh.jpg)
完成后点击OK。现在做个深呼吸。你已经在Samba的帮助下成功创建一个网络。然后重启网络或Samba服务,准备好和其它电脑共享文件。
```
sudo restart smbd && sudo restart nmbd
```
#### 通过网络共享文件夹或文件
在图形用户界面下通过Samba共享文件是很简单的。点击加号图标,会看到如图所示的对话框:
![](/data/attachment/album/201505/19/111602wmv55sa59bs7jjnm.jpg)
填写完这些字段。在‘Directory’中,浏览要共享的文件夹。你会看到的字段的含义如下:
* **Share name** 是其它人会看到的文件夹名字。
* **Description** 是要共享内容的简单描述。
* **Writeable** 默认情况下共享的文件夹是‘read only’。如果允许网络上的其他用户修改它们,设置为writable。
* **Visiable** 当你点击Visiable时,就像它的名字一样,共享文件夹就对网络上的其他人可见。
现在你可以设置共享文件夹的权限。点击‘Access’选项,选择想要共享文件夹的用户。当你选择对所有人允许访问后,这个文件夹就对网络上的所有人可见。
![](/data/attachment/album/201505/19/111602tqcbgjijcugebtub.png)
最后点击OK,完成共享。现在这个文件夹就与你想要共享的用户实现共享。你已经完成了网络共享文件。还有其它要做的吗?对!还不知道如何从网络上移除文件夹?
#### 移除共享文件夹
在网络共享一段时间后,我们也需要移除其中的一些文件夹。操作很简答,下面就是我们要做的。
![](/data/attachment/album/201505/19/111602i650ssg30s0z5gzb.jpg)
全部搞定!我们也可以使用终端进行网络文件共享,但这样没有本文介绍的方法这么容易。如果你确实想知道命令行操作,我会再写一篇关于在Linux上使用命令行实现网络文件共享的文章。
所以,你是怎么找到这篇教程的呢?我希望看了这篇教程你可以**很容易地在Ubuntu和Windows之间共享文件**。如果你有任何问题或建议,请在评论里说出来。
---
via: <http://itsfoss.com/share-folders-local-network-ubuntu-windows/>
作者:[Mohd Sohail](http://itsfoss.com/author/sohail/) 译者:[KayGuoWhu](https://github.com/KayGuoWhu) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,467 | 如何在Linux下创建一个不可变更的文件 | http://xmodulo.com/make-file-immutable-linux.html | 2015-05-19T11:28:21 | [
"chattr",
"lsattr"
] | https://linux.cn/article-5467-1.html | 假如你想对Linux中的一些重要文件做写保护,这样它们就不能被删除或者被篡改成之前的版本或者其他东西,或者在其他情况下,你可能想避免某些配置文件被软件自动修改。使用`chown`和`chmod`命令修改文件的归属关系或者权限位是处理这种情况的一个解决方法,但这并不完美,因为这样无法避免有root权限的操作。这时`chattr`就派上用场了。
`chattr`是一个可以设置或取消文件的标志位的Linux命令,它和标准的文件权限(读、写、执行)是分离的。与此相关的另一个命令是`lsattr`,它可以显示文件的哪些标志位被设置上了。最初只有EXT文件系统(EXT2/3/4)支持`chattr`和`lsattr`所管理的标志位,但现在很多其他的原生的Linux文件系统都支持了,比如XFS、Btrfs、ReiserFS等等。
![](/data/attachment/album/201505/19/112825lzsmhb3555slgbo5.jpg)
在这个教程中,我会示范如果使用`chattr`来让Linux中的文件不可变更。
`chattr`和`lsattr`命令是e2fsprogs包的一部分,它在所有现代Linux发行版都预装了。
下面是`chattr`的基本语法。
```
$ chattr [-RVf] [操作符][标志位] 文件...
```
其中操作符可以是“+”(把选定的标志位添加到标志位列表)、“-”(从标志位列表中移除选定的标志位)、或者“=”(强制使用选定的标志位)。
下面是一些可用的标志位。
* **a**: 只能以追加模式打开。
* **A**: 不能更新atime(文件访问时间)。
* **c**: 当被写入磁盘时被自动压缩。
* **C**: 关掉“写时复制”。
* **i**: 不可变更。
* **s**: 通过自动归零来安全删除。(LCTT 译注:一般情况文件被删后内容不会被修改,改标志位会使得文件被删后原有内容被“0”取代)
### “不可变更”标志位
为了让一个文件不可变更,你需要按照如下方法为这个文件添加“不可变更”标志位。例如,对/etc/passwd文件做写保护:
```
$ sudo chattr +i /etc/passwd
```
注意设置或取消一个文件的“不可变更”标志位是需要root用户权限的。现在检查该文件“不可变更”标志位是否被添加上了。
```
$ lsattr /etc/passwd
```
一旦文件被设置为不可变更,任何用户都将无法修改该文件。即使是root用户也不可以修改、删除、覆盖、移动或者重命名这个文件。如果你想再次修改这个文件,需要先把“不可变更”标志位取消了。
用如下命令取消“不可变更”标志位:
```
$ sudo chattr -i /etc/passwd
```
![](/data/attachment/album/201505/19/112829ldh7d0c3cf7fqfdq.jpg)
如果你想让一个目录(比如/etc)连同它下边的所有内容不可变更,使用“-R”选项:
```
$ sudo chattr -R +i /etc
```
### “只可追加”标志位
另一个有用的的标志位是“只可追加”,它只允许文件内容被追加的方式修改。你不能覆盖或者删除一个设置了“只可追加”标志位的文件。这个标志位在你想避免日志文件被意外清理掉的情况很有用。
和“不可变更”标志位类似,你可以使用如下命令让文件变成“只可追加”模式:
```
$ sudo chattr +a /var/log/syslog
```
注意当你复制一个“不可变更”或者“只可追加”的文件到其他地方后,新文件不会保留这些标志位!
### 结论
在这个教程中,我展示了如何使用`chattr`和`lsattr`命令来管理额外的文件标志位,来避免文件被篡改(意外或者其他情况)的方法。注意你不能将`chattr`作为一个安全措施,因为“不可变更”标志位可以很容易被取消掉。解决这个问题的一个可能的方式是限制`chattr`命令自身的可用性,或者去掉CAP*LINUX*IMMUTABLE内核权能标志。关于`chattr`以及可用的标志位的更多细节,请参考它的man手册。
---
via: <http://xmodulo.com/make-file-immutable-linux.html>
作者:[Dan Nanni](http://xmodulo.com/author/nanni) 译者:[goreliu](https://github.com/goreliu) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,468 | Windows 下的免费 SSH 客户端工具 | http://www.unixmen.com/list-free-windows-ssh-client-tools-connect-linux-server/ | 2015-05-19T15:09:00 | [
"ssh",
"Putty",
"MobaXterm",
"DameWare SSH"
] | https://linux.cn/article-5468-1.html | 如果你的操作系统是 Windows,而你想要连接 Linux 服务器相互传送文件,那么你需要一个简称 SSH 的 Secure Shell 软件。实际上,SSH 是一个网络协议,它允许你通过网络连接到 Linux 和 Unix 服务器。SSH 使用公钥加密来认证远程的计算机。你可以有多种途径使用 SSH,无论是自动连接,还是使用密码认证登录。
本篇文章介绍了几种可以连接 Linux 服务器 SSH 客户端。
让我们开始吧。
### Putty
**Putty** 是最有名的 SSH 和 telnet 客户端,最初由 Simon Tatham 为 Windows 平台开发。Putty 是一款开源软件,有可用的源代码,和一群志愿者的开发和支持。
![](/data/attachment/album/201505/19/150942gewha92eibj9b59c.png)
Putty 非常易于安装和使用,通常大部分的配置选项你都不需要修改。你只需要输入少量基本的参数,就可以开始很简单地建立连接会话。[点此下载](http://www.chiark.greenend.org.uk/%7Esgtatham/putty/download.html) Putty。
### Bitvise SSH Client
**Bitvise SSH** 是一款支持 SSH 和 SFTP 的 Windows 客户端。由 Bitvise 开发和提供专业支持。这款 SSH 客户端性能强悍,易于安装、便于使用。Bitvise SSH 客户端拥有功能丰富的图形界面,通过一个有自动重连功能的内置代理进行动态端口转发。
![](/data/attachment/album/201505/19/150943ms5znjnn44cj46ij.png)
Bitvise SSH 客户端对**个人用户使用是免费的**,同时对于在组织内部的个人商业使用也一样。你可以[在这里下载 Bitvise SSH 客户端](http://www.bitvise.com/download-area)。
### MobaXterm
**MobaXterm** 是你的**远程计算的终极工具箱**。在一个 Windows 应用里,它为程序员、网管、IT 管理员及其它用户提供了精心裁剪的一揽子功能,让他们的远程操作变得简约时尚。
![](/data/attachment/album/201505/19/150943x43w9qzuquezg9um.png)
MobaXterm 提供了所有重要的**远程网络工具** (如SSH、 X11、 RDP、 VNC、 FTP、 MOSH 等等),以及 Windows 桌面上的 **Unix 命令**(bash、 ls、 cat、sed、 grep、 awk、 rsync等等),而这些都是由一个开箱即用的**单一的便携程序**所提供。MobaXterm 对**个人使用免费**,你可以[在这里](http://mobaxterm.mobatek.net/download.html)下载 MobaXterm。
### DameWare SSH
我认为 **DameWare SSH** 是最好的免费SSH客户端。(LCTT 译注:似乎 DameWare 已经取消了该软件的下载。)
![](/data/attachment/album/201505/19/150944x94nnl55gn15v922.png)
这个免费工具是一个终端模拟器,可以让你从一个易用的控制台建立多个 telnet 和 SSH 连接。
* 用一个带标签的控制台界面管理多个会话
* 将常用的会话保存在 Windows 文件系统中
* 使用多套保存的证书来轻松登录不同的设备
* 使用 telnet、SSH1 和 SSH2 协议连接计算机和设备
### SmarTTY
SmarTTY 是一款免费的多标签 SSH 客户端,支持使用 SCP 命令随时复制文件和目录。
![](/data/attachment/album/201505/19/150945h27rll2trx00g00m.png)
大多数 SSH 服务器每个连接支持最多10个子会话.SmarTTY 在这方面做得很好:没有烦人的多个窗口,不需要重新登录,仅仅打开一个新的标签页就可以开始了!
### Cygwin
Cygwin 是一款 GNU 和开源工具的大杂烩,提供的功能近似于一个 Windows 平台下的 Linux。
![](/data/attachment/album/201505/19/150946t44v4mx74v66v3xa.png)
**Cygwin** 包括了一个称为模拟库的 Unix 系统:cygwin.dll,集成了大量的 GNU 和其它的免费软件,以大量的可选包方式组织而成。在这些安装包中,有高质量的编译器和其他软件开发工具、一个X11服务器、一套完整的X11开发套件、GNU emacs 编辑器、Tex 和 LaTeX、openSSH(客户端和服务器),除此之外还有很多,包括在微软 Windows 下需要编译和使用 PhysioToolkit 软件的每一样东西。
读完我们的文章后,不知你中意哪一款 SSH 客户端?你可以留下你的评论,描述你喜欢的系统和选择的原因。当然,如果有另外的 SSH 客户端没有被本文列举出来,你可以帮助我们补充。
---
via: <http://www.unixmen.com/list-free-windows-ssh-client-tools-connect-linux-server/>
作者:[anismaj](http://www.unixmen.com/author/anis/) 译者:[wi-cuckoo](http://github.com/wi-cuckoo) 校对:[wxy](http://github.com/wxy)
本文由 [LCTT](http://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,470 | Sailfish OS 将成为俄罗斯的官方移动操作系统 | http://www.jollausers.com/2015/05/sailfish-os-to-become-russias-official-operating-system-for-mobile/ | 2015-05-19T19:29:00 | [
"Sailfish OS"
] | https://linux.cn/article-5470-1.html | ![jolla_russia_launch](/data/attachment/album/201505/19/192939pjqjjjjdtutxjcxc.jpg)
Jolla 公司最近一直在后面默默努力,以期给大家带来一些激动人心的新消息。那么,有什么能比得到一个大国支持,并把你的操作系统称作他们的国家官方的移动操作系统更令人兴奋呢?
据 [RBC 报纸](http://top.rbc.ru/technology_and_media/17/05/2015/55585f5b9a79471191c70fb3)报道,俄罗斯通信部决定选用 Jolla 的 Sailfish OS作为该国的官方电话操作系统,Sailfish OS 是 Jolla 公司在被诺基亚放弃的 MeeGo 基础上开发的移动操作系统。
Jolla 的发言人 Juhani Lasslia 说,Antti Saarnio 上周访问了俄罗斯,与俄罗斯官方、通信公司及 IT 公司磋商了合作可能与合同事项。这实际上是 Saarnio 先生第二次访问俄罗斯,与官方磋商了。
据 Lassila 说,该项目尚处于相当早期。俄罗斯的 Sailfish 计划是金砖五国(巴西、中国、俄罗斯、印度和南非)的相关项目的一部分,旨在协作这些新兴大国之间的合作。
| 403 | Forbidden | null |
5,471 | 如何在 Linux 中使用 Alpine 在命令行里访问 Gmail | http://xmodulo.com/gmail-command-line-linux-alpine.html | 2015-05-20T07:10:00 | [
"Alpine",
"gmail",
"邮件"
] | https://linux.cn/article-5471-1.html | 假如你是一个命令行爱好者,我很确信你会使用这个强大的工作环境来执行哪怕是一项日常任务的工具,并为之欢呼,例如从 [安排日程](http://xmodulo.com/schedule-appointments-todo-tasks-linux-terminal.html) 、 [管理财务](http://xmodulo.com/manage-personal-expenses-command-line.html) 到 获取 [Facebook](http://xmodulo.com/access-facebook-command-line-linux.html) 、[Twitter](http://xmodulo.com/access-twitter-command-line-linux.html)等任务。(LCTT 译注:阅读本文的另一个前提是,假如你还能访问 Gmail 或者知道 Gmail 是什么的话。)
在这个帖子中,我将为你展示 Linux 命令行的另一个漂亮干练的使用案例:**访问 Google 的 Gmail 服务**,为此,我们将使用 Alpine,一个基于 ncurses 的多功能命令行邮件客户端(不要和 Alpine Linux 搞混淆)。我们将在 Alphine 中配置 Gmail 的 IMAP 和 SMTP 设定,通过 Google 的邮件服务器在终端环境中收取和发送邮件。在这个教程的最后,你将发现只需几步就可以在 Alpine 中使用其他的邮件服务。
诚然,已有许多卓越的基于 GUI 的邮件客户端存在,例如 Thunderbird, Evolution 或者甚至是 Web 界面,那么为什么还有人对使用命令行的邮件客户端来收取 Gmail 这样的事感兴趣呢?答案很简单。假如你需要快速地处理好事情并想避免浪费不必要系统资源;或者你正工作在一个精简安装无操作台的服务器上,它没有安装用于图形显示的 X 服务;又或者是 X 服务在你的桌面上崩溃了,而你需要在解决这个问题之前急切地发送一些邮件。在上述所有的情况下, Alpine 都可以派上用场并在任何时间满足你的需求。
除了简单的编辑,发送和接收文本类的邮件信息等功能外, Alpine 还可以进行加密,解密和对邮件信息进行数字签名,以及与 TLS(注:Transport Layer Security,传输层加密)无缝集成。
### 在 Linux 上安装 Alpine
在基于 Red Hat 的发行版本上,可以像下面那样来安装 Alpine。需要注意的是,在 RHEL 或 CentOS 上,你需要首先启用 [EPEL 软件仓库](/article-2324-1.html)。
```
# yum install alpine
```
在 Debian,Ubuntu 或它们的衍生发行版本上,你可以这样做:
```
# aptitude install alpine
```
在安装完成后,你可以运行下面的命令来启动该邮件客户端:
```
# alpine
```
在你第一次启用 Alpine 时,它将在当前用户的家目录下创建一个邮件文件夹(`~/mail`),并显现出主界面,正如下面的视频所显示的那样:YOUTUBU 视频 - <http://www.youtube.com/kuKiv3uze4U> 。
它的用户界面有下列几个模块:
![](/data/attachment/album/201505/19/221220cb7tt2tt87mzboab.jpg)
请随意地浏览、操作来熟悉 Alpine。你总是可以在任何时候通过敲 'Q' 来回到命令提示符界面。请注意,所有的字符界面下方都有与操作相关的帮助。
在进一步深入之前,我们将为 Alpine 创建一个默认的配置文件。为此,请关闭 Alpine,然后在命令行中执行下面的命令:
```
# alpine -conf > /etc/pine.conf
```
### 配置 Alpine 来使用 Gmail 账号
当你安装了 Alpine 并至少花费了几分钟的时间来熟悉它的界面和菜单,下面便是实际配置它来使用一个已有的 Gmail 账户的时候了。
在 Alpine 中执行下面的步骤之前,记得首先要通过你的 Web 邮件界面,在你的 Gmail 设定里启用 IMAP 协议。一旦在你的 Gmail 账户中启用了 IMAP ,执行下面的步骤来在 Alpine 中启用阅读 Gmail 信息的功能。
首先,启动 Alpine。
按 'S' 来进行设置,再按 'L' 选择 `collectionLists` 选项来定义不同的文件夹类别以帮助你更好地组织你的邮件:
![](/data/attachment/album/201505/19/221224zk0ejeo0uxoukm0y.png)
按 'A' 来新建一个文件夹并填写必要的信息:
* **Nickname**: 填写任何你想写的名字;
* **Server**: imap.gmail.com/ssl/user=[yourgmailusername@gmail.com](mailto:yourgmailusername@gmail.com)
你可以将 `Path` 和 `View` 留白不填。
然后按 `Ctrl+X` 并在提示时输入你的 Gmail 密码:
![](/data/attachment/album/201505/19/221225dq5q9hvksphr2bqr.jpg)
假如一切如预期一样进展顺利,就会出现一个以你先前填写的昵称来命名的新文件夹。你应该可以在这里找到你的 Gmail 信箱:
![](/data/attachment/album/201505/19/221227zn6ze7q7zcp6okyl.jpg)
要验证的话,你可以比较在 Alpine 中显示的 "Gmail Sent" 信箱和在 Web 界面下的信箱:
![](/data/attachment/album/201505/19/221243b8wq8fn8nhn8mhan.jpg)
默认情况下,每隔 150 秒,它将自动检查新邮件或提示,你可以在文件 `/etc/pine.conf`中改变这个值,同时你还可以修改许多其他设定。这个配置文件拥有详细且清晰的注释。例如,为了将检查新邮件的时间间隔设定为 10 秒,你需要这样设定:
```
# The approximate number of seconds between checks for new mail
mail-check-interval=10
```
最后,我们需要配置一个 SMTP 服务器来通过 Alpine 发送邮件。回到先前解释过的 Alpine 的设置界面,然后按 'C' 来设定一个 Google 的 SMTP 服务器地址,你需要像下面这样编辑 `SMTP Server`(用于发送邮件)这一行内容:
```
smtp.gmail.com:587/tls/user=yourgmailusername@gmail.com
```
当你按 'E' 离开设定界面时,将会提醒你保存更改。一旦你保存了更改,马上你就可以通过 Alpine 来发送邮件了!为此,来到主菜单中的 `Compose` 选项,接着开始从命令行中操作你的 Gmail 吧。
### 总结
在这个帖子里,我们讨论了在终端环境中如何通过一个名为 Alpine 的轻量且强大的命令行邮件客户端来访问 Gmail。 Alpine 是一个发布在 Apache Software License 2.0 协议下的自由软件,该协议与 GPL 协议相兼容。 Alpine 引以自豪的是:它不仅对新手友好,同时还做到了让那些经验丰富的系统管理员认为它是强大的。我希望在你阅读完这篇文章后,你能意识到我最后一个论断是多么的正确。
非常欢迎使用下面的输入框来留下你的评论或问题。我期待着你们的反馈!
---
via: <http://xmodulo.com/gmail-command-line-linux-alpine.html>
作者:[Gabriel Cánepa](http://xmodulo.com/author/gabriel) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,472 | Linux有问必答:如何在Ubuntu中升级Docker | http://ask.xmodulo.com/upgrade-docker-ubuntu.html | 2015-05-20T08:22:00 | [
"Docker"
] | /article-5472-1.html |
>
> **提问**: 我使用了Ubuntu的标准仓库安装了Docker。然而,默认安装的Docker不能满足我另外一个依赖Docker程序的版本需要。我该如何在Ubuntu中升级到Docker的最新版本?
>
>
>
Docker第一次在2013年发布,它快速地演变成了一个针对分布式程序的开发平台。为了满足工业期望,Docker正在紧密地开发并持续地带来新特性的升级。这样Ubuntu发行版中的Docker版本可能很快就会过时。比如, Ubuntu 14.10 Utopic 中的Docker版本是1.2.0, 然而最新的Docker版本是1.6.0(截止至本文发布时)。
![](/data/attachment/album/201505/19/222421gubgm7m7dp3tupyn.jpg)
对于那些想要跟随Docker的最新开发的人而言,Canonical为Docker维护了一个独立的PPA。使用这个PPA仓库,你可以很容易地在Ubuntu上升级到最新的Docker版本。
下面是如何设置Docker的PPA和升级Docker。
```
$ sudo add-apt-repository ppa:docker-maint/testing
$ sudo apt-get update
$ sudo apt-get install docker.io
```
检查安装的Docker版本:
```
$ docker --version
```
---
```
Docker version 1.5.0-dev, build a78ce5c
```
---
via: <http://ask.xmodulo.com/upgrade-docker-ubuntu.html>
作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /upgrade-docker-ubuntu.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c70d0>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)")) | null |
5,473 | Linux 下四种安全删除文件的工具 | http://linoxide.com/security/delete-files-permanatly-linux/ | 2015-05-20T09:43:00 | [
"Secure-Delete",
"Shred",
"dd",
"wipe",
"删除"
] | /article-5473-1.html | 任何一个普通水平的计算机用户都知道,从计算机系统中删除的任意数据都可以稍后通过一些努力恢复出来。当你不小心删除了你的重要数据时,这是一个不错的方案。但是大多数情况,你不希望你的隐私数据被轻易地恢复。不论何时,我们删除的任意文件,操作系统删除的仅仅是对特定数据的索引。这就意味着,数据仍然保存在磁盘的某块地方,这种方法是不安全的,任何一个聪明的计算机黑客可以使用各种不错的数据恢复工具来恢复你删除的数据。Linux 用户利用我们都知晓的 "rm" 命令来从他们的操作系统中删除数据,但是 "rm" 命令也是像上面说的那样删除文件。从这个命令删除的数据也可以使用特殊的文件恢复工具恢复。
让我们看看怎样安全并完整地从你的 Linux 系统中删除文件或者文件夹。以下提到的工具可以完全地删除数据,因此那些恢复工具很难找到真实数据的痕迹然后恢复它。
![](/data/attachment/album/201505/19/225016qll0xpzpl3j740n7.jpg)
### Secure-Delete
Secure-Delete 是一组为 Linux 操作系统而生的工具集合,他们为永久删除文件提供了先进的技术支持。一旦 Secure-Delete 安装在各种 Linux 系统上,就提供了如下的四个命令:
* srm
* smem
* sfill
* sswap
在 ubuntu 的终端中运行如下命令安装此工具:
```
sudo apt-get install secure-delete
```
![secure delete](/data/attachment/album/201505/19/225021ilg5xg00ogn9xpdo.png)
在 RHEL,Fedora 或者 Centos 中运行如下命令安装此工具:
```
sudo yum install secure-delete
```
“**srm**” 命令的工作方式和 "rm" 命令类似,但是它不仅仅是删除文件,它首先使用一些随机的数据重写数次文件,然后彻底地删除此文件。这个命令的语法是相当地简单,仅仅指定要删除的文件或者目录,然后它会负责此任务。
```
sudo srm /home/aun/Documents/xueo/1.png
```
"**sfill**" 检测在指定的分区或者目录被标记为空闲或者可用的空间,然后使用它自身的算法用一些随机数据填充。因此它保证了在此分区没有可以恢复的文件或者文件夹。
```
sudo sfill /home
```
"**sswap**" 命令用来安全地清除你的交换分区。交换分区用来存放运行程序的数据。首先我们需要运行如下命令来找到你的交换分区。
```
cat /proc/swaps
```
如下是上述命令的输出示例:
```
aun@eagle:~$ cat /proc/swaps
Filename Type Size Used Priority
/dev/sda5 partition 2084860 71216 -1
```
从现在起,你可以看到你的交换分区设置在哪个分区,然后使用如下命令安全地清除。替换 "/dev/sda5" 部分为你的交换分区名字。
```
sudo sswap /dev/sda5
```
“**smem**” 用来清理在内存中的内容,虽然当系统重启或者关机时会清理随机存取存储器(RAM)中的内容,但是内存中仍然会保留一些数据的残留痕迹。这个命令提供安全的内存清理,简单地在终端中运行 smem 命令即可。
```
smem
```
### Shred
"shred" 命令以一种不可恢复的方式来销毁文件或者文件夹的内容。它使用随机生成的数据模式来持续覆写文件,因此很难恢复任意的被销毁的数据,即使是那些黑客或者窃贼使用高水平的数据恢复工具或者设备。Shred 默认安装在所有 Linux 发行版中,如果你想,你可以运行如下命令来找到它的安装目录:
```
aun@eagle:~$ whereis shred
shred: /usr/bin/shred /usr/share/man/man1/shred.1.gz
```
使用 shred 工具运行如下命令来删除文件:
```
shred /home/aun/Documents/xueo/1.png
```
使用 shred 运行如下命令来删除任意的分区,用你期望的分区来替换分区名字。
```
shred /dev/sda5
```
Shred 默认情况下使用随机内容重写数据 25 次。如果你想它重写文件更多次数,可以使用 "shred -n" 选项来简单地指定你所期望的次数。
```
shred -n 100 filename
```
如果你想在重写后截断或者删除文件,使用 "shred -u" 选项:
```
shred -u filename
```
### dd
这个命令起初是用于磁盘克隆的。它用于将一个分区或者一个磁盘复制到另一个分区或者磁盘。但是它还可用于安全地清除硬盘或者分区的内容。运行如下命令使用随机数据来重写你的当前数据。你不需要安装 dd 命令,所有的 Linux 分发版都已经包含了此命令。
```
sudo dd if=/dev/random of=/dev/sda
```
你也可以覆写磁盘或者分区中的内容,只需要简单地将所有替换为 “zero”。
```
sudo dd if=/dev/zero of=/dev/sda
```
### Wipe
Wipe 起初开发的目的是从磁性介质中安全地擦除文件。这个命令行工具使用特殊的模式来重复地写文件。它使用 fsync() 调用和/或 O\_SYNC 位来强制访问磁盘,并且使用 Gutmann 算法来重复地写。你可以使用此命令删除单个文件、文件夹或者整个磁盘的内容,但是使用 wipe 命令来删除整个磁盘的模式会耗费大量的时间。另外,安装和使用这个工具相当容易。
在 ubuntu 的终端中运行如下命令来安装 wipe。
```
sudo aptitude install wipe
```
![Wipe Linux](/data/attachment/album/201505/19/225022eblvzubujbzvt8xd.png)
使用如下命令在 Redhat Linux,Centos 或者 Fedora 中安装 Wipe:
```
sudo yum install wipe
```
一旦安装完成,在终端中运行如下命令来获得完整的可用选项列表:
```
man wipe
```
删除任意文件或者目录:
```
wipe filename
```
运行如下命令来安全地移除 tmp 分区:
```
wipe -r /tmp
```
使用如下的命令来删除完整分区的内容(替换分区名字为你所期望的分区)。
```
wipe /dev/sda1
```
### 小结
我们期望这篇文章对你有帮助,你的数据隐私是有决定性意义的,在你的系统中安装这些安全的删除工具对你来说非常重要,因此你可以删除你的隐私数据而不用担心它们被轻易地恢复。上面提到的所有工具都是相当轻量的,它们只需要耗费最低的系统资源来运行,并且无论如何也不会影响你的系统性能。享受它们带来的便利吧!
---
via: <http://linoxide.com/security/delete-files-permanatly-linux/>
作者:[Aun Raza](http://linoxide.com/author/arunrz/) 译者:[dbarobin](https://github.com/dbarobin) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /security/delete-files-permanatly-linux/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c5b10>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,474 | Conky - 终极的 X 视窗系统监视器应用 | http://www.tecmint.com/install-conky-in-ubuntu-debian-fedora/ | 2015-05-20T11:02:00 | [
"Conky"
] | https://linux.cn/article-5474-1.html | Conky 是一个用 ‘C’ 语言写就的系统监视器,并在 GNU GPL 和 BSD 许可协议下发布,在 Linux 和 BSD 操作系统中都可以获取到它。这个应用是基于 X 视窗系统的,原本由 [Torsmo](http://torsmo.sourceforge.net/) 分支而来。
#### 特点
* 简洁的用户界面;
* 高度可配置;
* 它既可使用内置的部件(超过 300 多个) 也可使用外部脚本,来在桌面或其自有容器中展示系统的状态;
* 低资源消耗;
* 它可显示范围广泛的系统参数,包括但不限于 CPU,内存,swap 分区 ,温度,进程,磁盘使用情况,网络状态,电池电量,邮件收发,系统消息,音乐播放器的控制,天气信息,最新新闻,升级信息等等;
* 在许多操作系统中如 CrunchBang Linux 和 Pinguy OS 被默认安装;
#### 关于 Conky 的少有人知的事实
* conky 这个名称来自于一个加拿大电视节目;
* 它已被移植到 Nokia N900 上;
* 官方已经不再维护它了;
### 在 Linux 中 Conky 的安装和使用
在我们安装 conky 之前,我们需要使用下面的命令来安装诸如 `lm-sensors`, `curl` 和 `hddtemp` 之类的软件包:
```
# apt-get install lm-sensors curl hddtemp
```
然后是检测传感器:
```
# sensors-detect
```
**注**: 在被系统提示时,回答 ‘Yes’ 。
检测所有探测到的传感器:
```
# sensors
```
#### 样例输出
```
acpitz-virtual-0
Adapter: Virtual device
temp1: +49.5°C (crit = +99.0°C)
coretemp-isa-0000
Adapter: ISA adapter
Physical id 0: +49.0°C (high = +100.0°C, crit = +100.0°C)
Core 0: +49.0°C (high = +100.0°C, crit = +100.0°C)
Core 1: +49.0°C (high = +100.0°C, crit = +100.0°C)
```
Conky 既可以从软件仓库中安装,也可从源代码编译得到:
```
# yum install conky [在 RedHat 系的系统上]
# apt-get install conky-all [在 Debian 系的系统上]
```
**注**: 在 Fedora/CentOS 上安装 conky 之前,你必须启用 [EPEL 软件仓库](/article-2324-1.html)。
在安装完 conky 之后,只需输入如下命令来开启它:
```
$ conky &
```
![正在运行的 Conky 监视器](/data/attachment/album/201505/19/230536j2r85ol5ojuy8a5y.jpg)
*正在运行的 Conky 监视器*
这使得 conky 以一个弹窗的形式运行,并使用位于 `/etc/conky/conky.conf` 的 conky 基本配置文件。
你可能想将 conky 集成到桌面上,并不想让它每次以弹窗的形式出现,下面就是你需要做的:
将配置文件 `/etc/conky/conky.conf` 复制到你的家目录中,并将它重命名为 `.conkyrc`,开头的点号 (.) 是为了确保这个配置文件是隐藏的。
```
$ cp /etc/conky/conky.conf /home/$USER/.conkyrc
```
现在重启 conky 来应用新的更改:
```
$ killall -SIGUSR1 conky
```
![Conky 监视器窗口](/data/attachment/album/201505/19/230538ox0f5l8fx2dbkfm9.jpg)
*Conky 监视器窗口*
你可能想编辑位于你的家目录的 conky 的配置文件,这个配置文件的内容是非常容易理解的。
下面是 conky 配置文件的一个样例:
![Conky 的配置](/data/attachment/album/201505/19/230540xkr7gr7bj9girz0x.jpg)
*Conky 的配置*
从上面的窗口中,你可以更改颜色,边框,大小,缩放比例,背景,对齐方式及几个其他属性。通过为不同的 conky 窗口设定不同的对齐方式,我们可以同时运行几个 conky 脚本。
**让 conky 使用其它脚本而不是默认配置,以及如何找到这些脚本?**
你可以编写你自己的 conky 脚本或使用来自于互联网的脚本;我们并不建议你使用从互联网中找到的具有潜在危险的任何脚本,除非你清楚你正在做什么。然而,有一些著名的主题和网页包含可信赖的 conky 脚本,例如下面所提及的:
* <http://ubuntuforums.org/showthread.php?t=281865>
* <http://conky.sourceforge.net/screenshots.html>
在上面的 URL 地址中,你将发现其中每个截图都有一个超链接,它们将指向到脚本文件。
#### 测试 Conky 脚本
这里我将在我的 Debian Jessie 系统中运行一个由第三方写的 conky 脚本,以此来进行测试:
```
$ wget https://github.com/alexbel/conky/archive/master.zip
$ unzip master.zip
```
切换当前工作目录到刚才解压的目录:
```
$ cd conky-master
```
将 `secrets.yml.example` 重命名为 `secrets.yml`:
```
$ mv secrets.yml.example secrets.yml
```
在你需要运行这个(ruby)脚本之前安装 Ruby:
```
$ sudo apt-get install ruby
$ ruby starter.rb
```
![华丽的 conky 外观](/data/attachment/album/201505/19/230541wmm15yrmym0122ri.jpg)
*华丽的 conky 外观*
**注**: 可以修改这个脚本以展示你当前的天气,温度等;
假如你想让 conky 开机自启,请在开机启动应用设置(startup Applications) 中添加如下的几行命令:
```
conky --pause 10
save and exit.
```
最后,如此轻量级且吸引眼球的实用 GUI 软件包不再处于活跃状态且官方不再进行维护了。最新的稳定发布版本为 conky 1.9.0, 于 2012 年 5 月 3 号发布。在 Ubuntu 论坛上,一个有关用户分享 conky 配置的主题已经超过了 2000 多页。(这个论坛主题的链接为: <http://ubuntuforums.org/showthread.php?t=281865/>)
* [Conky 主页](http://conky.sourceforge.net/)
这就是全部内容了。保持联系,保持评论。请在下面的评论框里分享你的想法和配置。
---
via: <http://www.tecmint.com/install-conky-in-ubuntu-debian-fedora/>
作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,478 | Linux有问必答:如何在Linux中修改环境变量PATH | http://ask.xmodulo.com/change-path-environment-variable-linux.html | 2015-05-21T07:03:00 | [
"环境变量"
] | /article-5478-1.html |
>
> **提问**: 当我试着运行一个程序时,它提示“command not found”。 但这个程序就在/usr/local/bin下。我该如何添加/usr/local/bin到我的PATH变量下,这样我就可以不用指定路径来运行这个命令了。
>
>
>
在Linux中,PATH环境变量保存了一系列的目录用于用户在输入的时候搜索命令。PATH变量的值由一系列的由冒号分隔的绝对路径组成。每个用户都有特定的PATH环境变量(由系统级的PATH变量初始化)。
![](/data/attachment/album/201505/20/231450h329q23hy2ff9b9h.png)
要检查用户的环境变量,用户模式下运行下面的命令:
```
$ echo $PATH
/usr/lib64/qt-3.3/bin:/bin:/usr/bin:/usr/sbin:/sbin:/home/xmodulo/bin
```
或者运行:
```
$ env | grep PATH
PATH=/usr/lib64/qt-3.3/bin:/bin:/usr/bin:/usr/sbin:/sbin:/home/xmodulo/bin
```
如果你的命令不存在于上面任何一个目录内,shell就会抛出一个错误信息:“command not found”。
如果你想要添加一个另外的目录(比如:/usr/local/bin)到你的PATH变量中,你可以用下面这些命令。
### 为特定用户修改PATH环境变量
如果你只想在当前的登录会话中临时地添加一个新的目录(比如:/usr/local/bin)给用户的默认搜索路径,你只需要输入下面的命令。
```
$ PATH=$PATH:/usr/local/bin
```
检查PATH是否已经更新:
```
$ echo $PATH
/usr/lib64/qt-3.3/bin:/bin:/usr/bin:/usr/sbin:/sbin:/home/xmodulo/bin:/usr/local/bin
```
更新后的PATH会在当前的会话一直有效。然而,更改将在新的会话中失效。
如果你想要永久更改PATH变量,用编辑器打开~/.bashrc (或者 ~/.bash\_profile),接着在最后添加下面这行。
```
export PATH=$PATH:/usr/local/bin
```
接着运行下面这行永久激活更改:
```
$ source ~/.bashrc (或者 source ~/.bash_profile)
```
### 改变系统级的环境变量
如果你想要永久添加/usr/local/bin到系统级的PATH变量中,像下面这样编辑/etc/profile。
```
$ sudo vi /etc/profile
```
---
```
export PATH=$PATH:/usr/local/bin
```
你重新登录后,更新的环境变量就会生效了。
---
via: <http://ask.xmodulo.com/change-path-environment-variable-linux.html>
作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /change-path-environment-variable-linux.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c5600>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)")) | null |
5,479 | 用腻了 wget 或 curl,有什么更好的替代品吗? | http://xmodulo.com/wget-curl-alternative-linux.html | 2015-05-21T10:30:00 | [
"HTTPie",
"wget",
"curl"
] | https://linux.cn/article-5479-1.html | 如果你经常需要通过终端以非交互模式访问网络服务器(例如,从网络上下载文件,或者是测试 RESTful 网络服务接口),可能你会选择的工具是 wget 或 curl。通过大量的命令行选项,这两种工具都可以处理很多非交互网络访问的情况(比如[这里](http://xmodulo.com/how-to-download-multiple-files-with-wget.html)、[这里](http://xmodulo.com/how-to-use-custom-http-headers-with-wget.html),还有[这里](/article-4957-1.html))。然而,即使像这些一样的强大的工具,你也只能发挥你所了解的那些选项的功能。除非你很精通那些繁冗的语法细节,这些工具对于你来说只不过是简单的网络下载器而已。
就像其宣传的那样,“给人用 curl 类工具”,[HTTPie](https://github.com/jakubroztocil/httpie) 设计用来增强 wget 和 curl 的可用性。它的主要目标是使通过命令行与网络服务器进行交互的过程变得尽可能的人性化。为此,HTTPie 支持具有表现力、但又很简单很直观的语法。它以彩色模式显示响应,并且还有一些不错的优点,比如对 JSON 的良好支持,和持久性会话用以作业流程化。
我知道很多人对把像 wget 和 curl 这样的无处不在的、可用的、完美的工具换成完全没听说过的软件心存疑虑。这种观点是好的,特别是如果你是一个系统管理员、要处理很多不同的硬件的话。然而,对于开发者和终端用户来说,重要的是效率。如果我发现了一个工具的用户更佳替代品,那么我认为采用易于使用的版本来节省宝贵的时间是毫无疑问的。没有必要对替换掉的工具保持信仰忠诚。毕竟,对于 Linux 来说,最好的事情就是可以选择。
在这篇文章中,让我们来了解并展示一下我所说的 HTTPie,一个用户友好的 wget 和 curl 的替代。
![](/data/attachment/album/201505/20/233149by4l4qv8yzlokkkm.jpg)
### 在 Linux 上安装 HTTPie
HTTPie 是用 Python 写的,所以你可以在几乎所有地方(Linux,MacOSX,Windows)安装它。而且,在大多数的 Linux 发行版中都有编译好的安装包。
#### Debian,Ubuntu 或者 Linux Mint:
```
$ sudo apt-get install httpie
```
#### Fedora:
```
$ sudo yum install httpie
```
#### CentOS/RHEL:
首先,启用[EPEL 仓库](/article-2324-1.html),然后运行:
```
$ sudo yum install httpie
```
对于任何 Linux 发行版,另一个安装方法时使用[pip](http://ask.xmodulo.com/install-pip-linux.html)。
```
$ sudo pip install --upgrade httpie
```
### HTTPie 的例子
当你安装完 HTTPie 后,你可以通过输入 http 命令来调用它。在这篇文章的剩余部分,我会展示几个有用的 http 命令的例子。
#### 例1:定制头部
你可以使用 <header:value> 的格式来定制头部。例如,我们发送一个 HTTP GET 请求到 [www.test.com](http://www.test.com) ,使用定制用户代理(user-agent)和来源(referer),还有定制头部(比如 MyParam)。
```
$ http www.test.com User-Agent:Xmodulo/1.0 Referer:http://xmodulo.com MyParam:Foo
```
注意到当使用 HTTP GET 方法时,就无需明确指定 HTTP 方法。
这个 HTTP 请求看起来如下:
```
GET / HTTP/1.1
Host: www.test.com
Accept: */*
Referer: http://xmodulo.com
Accept-Encoding: gzip, deflate, compress
MyParam: Foo
User-Agent: Xmodulo/1.0
```
#### 例2:下载文件
你可以把 http 作为文件下载器来使用。你需要像下面一样把输出重定向到文件。
```
$ http www.test.com/my_file.zip > my_file.zip
```
或者:
```
$ http --download www.test.com/my_file.zip
```
#### 例3:定制 HTTP 方法
除了默认的 GET 方法,你还可以使用其他方法(比如 PUT,POST,HEAD)。例如,发送一个 HTTP PUT 请求:
```
$ http PUT www.test.com name='Dan Nanni' email=dan@email.com
```
#### 例4:提交表单
使用 http 命令提交表单很容易,如下:
```
$ http -f POST www.test.com name='Dan Nanni' comment='Hi there'
```
'-f' 选项使 http 命令序列化数据字段,并将 'Content-Type' 设置为 "application/x-www-form-urlencoded; charset=utf-8"。
这个 HTTP POST 请求看起来如下:
```
POST / HTTP/1.1
Host: www.test.com
Content-Length: 31
Content-Type: application/x-www-form-urlencoded; charset=utf-8
Accept-Encoding: gzip, deflate, compress
Accept: */*
User-Agent: HTTPie/0.8.0
name=Dan+Nanni&comment=Hi+there
```
#### 例5:JSON 支持
HTTPie 内置 JSON(一种日渐普及的数据交换格式)支持。事实上,HTTPie 默认使用的内容类型(content-type)就是 JSON。因此,当你不指定内容类型发送数据字段时,它们会自动序列化为 JSON 对象。
```
$ http POST www.test.com name='Dan Nanni' comment='Hi there'
```
这个 HTTP POST 请求看起来如下:
```
POST / HTTP/1.1
Host: www.test.com
Content-Length: 44
Content-Type: application/json; charset=utf-8
Accept-Encoding: gzip, deflate, compress
Accept: application/json
User-Agent: HTTPie/0.8.0
{"name": "Dan Nanni", "comment": "Hi there"}
```
#### 例6:输出重定向
HTTPie 的另外一个用户友好特性是输入重定向,你可以使用缓冲数据提供 HTTP 请求内容。例如:
```
$ http POST api.test.com/db/lookup < my_info.json
```
或者:
```
$ echo '{"name": "Dan Nanni"}' | http POST api.test.com/db/lookup
```
### 结束语
在这篇文章中,我介绍了 HTTPie,一个 wget 和 curl 的可能替代工具。除了这里展示的几个简单的例子,你可以在其[官方网站](https://github.com/jakubroztocil/httpie)上找到 HTTPie 的很多有趣的应用。再次重复一遍,一款再强大的工具也取决于你对它的了解程度。从个人而言,我更倾向于 HTTPie,因为我在寻找一种更简洁的测试复杂网络接口的方法。
你怎么看?
---
via: <http://xmodulo.com/wget-curl-alternative-linux.html>
作者:[Dan Nanni](http://xmodulo.com/author/nanni) 译者:[wangjiezhe](https://github.com/wangjiezhe) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,480 | Inkscape - 开源矢量图形编辑器 | http://linoxide.com/tools/install-inkscape-open-source-vector-graphic-editor/ | 2015-05-22T13:02:00 | [
"Inkscape"
] | /article-5480-1.html | Inkscape是一款开源矢量图形编辑工具,并不同于Xara X、Corel Draw和Adobe Illustrator等竞争对手,它使用的是可缩放矢量图形(SVG)图形格式。SVG是一个广泛部署、免版税使用的图形格式,由W3C SVG工作组开发和维护。这是一个跨平台工具,完美运行于Linux、Windows和Mac OS上。
![](/data/attachment/album/201505/21/000553bfpgv6jogqpjq676.png)
Inkscape始于2003年,起初它的bug跟踪系统托管于Sourceforge上,但是后来迁移到了Launchpad上。当前它最新的一个稳定版本是0.91,它不断地在发展和修改中。我们将在本文里了解一下它的突出特点和安装过程。
### 显著特性
让我们直接来了解这款应用程序的显著特性。
#### 创建对象
* 用铅笔工具来画出不同颜色、大小和形状的手绘线,用贝塞尔曲线(笔式)工具来画出直线和曲线,通过书法工具来应用到手写的书法笔画上等等
* 用文本工具来创建、选择、编辑和格式化文本。在纯文本框、在路径上或在形状里操作文本
* 方便绘制各种形状,像矩形、椭圆形、圆形、弧线、多边形、星形和螺旋形等等并调整其大小、旋转并修改(圆角化)它们
* 用简单地命令创建并嵌入位图
#### 对象处理
* 通过交互式操作和调整参量来扭曲、移动、测量、旋转目标
* 可以对 Z 轴进行提升或降低操作。
* 通过对象组合和取消组合可以创建一个虚拟层用来编辑或处理
* 图层采用层次结构树的结构,并且能锁定或以各式各样的处理方式来重新布置
* 分布与对齐指令
#### 填充与边框
* 可以复制/粘贴不同风格
* 取色工具
* 用RGB, HSL, CMS, CMYK和色盘这四种不同的方式选色
* 渐变层编辑器能创建和管理多停点渐变层
* 使用图像或其它选择区作为花纹填充
* 用一些预定义点状花纹进行笔触填充
* 通过路径标示器标示开始、对折和结束点
#### 路径上的操作
* 节点编辑:移动节点和贝塞尔曲线控制点,节点的对齐和分布等等
* 布尔运算(是或否)
* 运用可变的路径起迄点可简化路径
* 路径插入和增设连同动态和链接偏移对象
* 通过路径追踪把位图图像转换成路径(彩色或单色路径)
#### 文本处理
* 所有安装好的框线字体都能用,甚至可以从右至左对齐对象
* 格式化文本、调整字母间距、行间距或列间距
* 路径上和形状上的文本中的文本、路径或形状都可以被编辑和修改
#### 渲染
* Inkscape完全支持抗锯齿显示,这是一种通过柔化边界上的像素从而减少或消除凹凸锯齿的技术。
* 支持alpha透明显示和PNG格式图片的导出
### 在Ubuntu 14.04和14.10上安装Inkscape
为了在Ubuntu上安装Inkscape,我们首先需要 [添加它的稳定版Personal Package Archive](https://launchpad.net/%7Einkscape.dev/+archive/ubuntu/stable) (PPA) 至Advanced Package Tool (APT) 库中。打开终端并运行一下命令来添加它的PPA:
```
sudo add-apt-repository ppa:inkscape.dev/stable
```
![PPA Inkscape](/data/attachment/album/201505/21/000620my0xum3fu6fuu66x.png)
PPA添加到APT库中后,我们要用以下命令进行更新:
```
sudo apt-get update
```
![Update APT](/data/attachment/album/201505/21/000620kmazam4knsktvvsz.png)
更新好库之后,我们准备用以下命令来完成安装:
```
sudo apt-get install inkscape
```
![Install Inkscape](/data/attachment/album/201505/21/000621v6rxpxrrr9nr74tp.png)
恭喜,现在Inkscape已经被安装好了,我们可以充分利用它的丰富功能特点来编辑制作图像了。
![Inkscape Main](/data/attachment/album/201505/21/000621w5rr2rcp6z7wa3rq.png)
### 结论
Inkscape是一款特点鲜明的图形编辑工具,它给予用户充分发挥自己艺术能力的权利。它还是一款自由安装和自定义的开源应用,并且支持各种文件类型,包括JPEG, PNG, GIF和PDF及更多。访问它的 [官方网站](https://inkscape.org/en/) 来获取更多新闻和应用更新。
---
via: <http://linoxide.com/tools/install-inkscape-open-source-vector-graphic-editor/>
作者:[Aun Raza](http://linoxide.com/author/arunrz/) 译者:[ZTinoZ](https://github.com/ZTinoZ) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /tools/install-inkscape-open-source-vector-graphic-editor/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c6980>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,483 | 如何解决 Ubuntu 下不能记住亮度设置的问题 | http://itsfoss.com/ubuntu-mint-brightness-settings/ | 2015-05-21T15:19:49 | [
"亮度"
] | https://linux.cn/article-5483-1.html | ![](/data/attachment/album/201505/21/151950qpvfzu6a64taa99b.jpg)
在[解决亮度控制在Ubuntu和Linux Mint下不工作的问题](http://itsfoss.com/fix-brightness-ubuntu-1310/)这篇教程里,一些用户提到虽然问题已经得到解决,但是**Ubuntu无法记住亮度设置**,同样的情况在Linux Mint下也会发生。每次开机或从睡眠状态下唤醒,亮度会恢复至最大值或最小值。我知道这种情况很烦。不过幸好我们有很简单的方法来解决**Ubuntu和Linux Mint下的亮度问题**。
### 解决Ubuntu和Linux下不能记住亮度设置
[Norbert](https://launchpad.net/%7Enrbrtx/+archive/ubuntu/sysvinit-backlight/+packages)写了一个脚本,能让Ubuntu和Linux Mint记住亮度设置,不论是开机还是唤醒之后。为了能让你使用这个脚本更简单方便,他把这个适用于Ubuntu 12.04、14.04和14.10的PPA挂在了网上。你需要做的就是输入以下命令:
```
sudo add-apt-repository ppa:nrbrtx/sysvinit-backlight
sudo apt-get update
sudo apt-get install sysvinit-backlight
```
安装好之后,重启你的系统。现在就来看看亮度设置有没有被保存下来吧。
希望这篇小贴士能帮助到你。如果你有任何问题,就[来这儿](https://launchpad.net/%7Enrbrtx/+archive/ubuntu/sysvinit-backlight/+packages)提bug吧。
---
via: <http://itsfoss.com/ubuntu-mint-brightness-settings/>
作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[ZTinoZ](https://github.com/ZTinoZ) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,484 | 如何交互式地创建一个Docker容器 | http://linoxide.com/linux-how-to/interactively-create-docker-container/ | 2015-05-21T15:57:45 | [
"Docker",
"容器"
] | /article-5484-1.html | 大家好,今天我们来学习如何使用一个docker镜像交互式地创建一个Docker容器。当我们从镜像中启动一个Docker进程,Docker就会获取该镜像及其父镜像,并重复这个过程,直到到达基础镜像。然后联合文件系统(UFS)会在其顶层添加一个读写层。读写层被称之为容器,它包含了一些关于父镜像信息及一些其他的信息,如唯一ID,网络配置和资源限制等。容器是有状态的,其状态可以从 **运行态** 切换到 **退出态**。一个处于 **运行态**的容器包含了在CPU上面运行的进程树,于其它在该主机上运行的进程相隔离,而**退出态**是指文件系统的状态,并保留了其退出值。你可以使用它来启动,停止和重启一个容器。
Docker技术为IT界带来了巨大的改变,它使得云服务可以用来共享应用和工作流程自动化,使得应用可以用组件快速组合,消除了开发、品质保证、产品环境间的摩擦。在这篇文章中,我们将会建立CentOS环境,然后用Apache网络服务器提供一个网站服务。
![](/data/attachment/album/201505/21/155734nowa22j60evvab0j.jpeg)
这是一个快速且容易的教程,讨论我们怎样使用交互的shell,以交互的方式来创建一个容器。
### 1. 运行一个Docker实例
Docker首先会尝试从本地取得并运行所需的镜像,如果在本地主机上没有发现,它就会从[Docker公共注册中心](https://registry.hub.docker.com/)拉取。这里,我们将会拉取镜像并在 Docker 容器中创建一个fedora实例,并连接到它的 tty 上的bash shell。
```
# docker run -i -t fedora bash
```
![Downloading Fedora Base Image](/data/attachment/album/201505/21/155748cd6wkfknvk5xphsk.png)
### 2.安装Apache网络服务器
现在,在我们的Fedora基本镜像实例准备好后,我们将会开始交互式地安装Apache网络服务器,而不是为它创建Dockerfile。为了做到这点,我们需要在终端或者shell运行以下命令。
```
# yum update
```
![Installing httpd](/data/attachment/album/201505/21/155749y41zlre1meysa7f4.png)
```
# yum install httpd
```
![Installing httpd](/data/attachment/album/201505/21/155749y41zlre1meysa7f4.png)
退出容器的 tty。
```
# exit
```
### 3.保存镜像
现在,我们要去保存在Fedora实例里做的修改。要做到这个,我们首先需要知道实例的容器ID。而为了得到ID,我们又需要运行以下命令(LCTT 译注:在容器外执行该命令)。
```
# docker ps -a
```
![Docker Running Container](/data/attachment/album/201505/21/155750t2lofzildfwuijnz.png)
然后,我们会保存这些改变为一个新的镜像,请运行以下命令。
```
# docker commit c16378f943fe fedora-httpd
```
![committing fedora httpd](/data/attachment/album/201505/21/155750uu5e808zs5dudu5u.png)
这里,修改已经通过使用容器ID保存起来了,镜像名字叫fedora-httpd。为了确认新的镜像是否在运行,我们将运行以下命令。
```
# docker images
```
![view docker images](/data/attachment/album/201505/21/155750rnkz3mk83kfvkghb.png)
### 4. 添加内容到新的镜像
我们自己新的Fedora Apache镜像正成功的运行,现在我们想添加一些我们网站的网页内容到Apache网络服务器,使得网站能够开箱即用。为做到这点,我们需要创建一个新的Dockerfile,它会处理从复制网页内容到启用80端口的所有操作。要达到这样的目的,我们需要使用我们最喜欢的文本编辑器创建Dockerfile文件,像下面演示的一样。
```
# nano Dockerfile
```
现在,我们需要添加以下的命令行到文件中。
```
FROM fedora-httpd
ADD mysite.tar /tmp/
RUN mv /tmp/mysite/* /var/www/html
EXPOSE 80
ENTRYPOINT [ "/usr/sbin/httpd" ]
CMD [ "-D", "FOREGROUND" ]
```
![configuring Dockerfile](/data/attachment/album/201505/21/155751t8p3mx22gnmddx77.png)
这里,上述的Dockerfile中,放在mysite.tar里的网页内容会自动解压到/tmp/文件夹里。然后,整个站点会被移动到Apache的网页根目录/var/www/html/,命令expose 80会打开80端口,这样网站就能正常访问了。其次,入口点放在了/usr/sbin/https里面,保证Apache服务器能够执行。
### 5. 构建并运行一个容器
现在,我们要用刚刚创建的Dockerfile创建我们的容器,以便将我们的网站添加到上面。为做到这,我们需要运行以下命令。
```
# docker build -rm -t mysite .
```
![Building mysite Image](/data/attachment/album/201505/21/155751kr3qjrpejjkepqpz.png)
建立好我们的新容器后,我们需要要用下面的命令来运行容器。
```
# docker run -d -P mysite
```
![Running mysite Container](/data/attachment/album/201505/21/155752bcfkumrecu9zu9zc.png)
### 总结
最后,我们已经成功的以交互式的方式建立了一个Docker容器。在本节方法中,我们是直接通过交互的shell命令建立我们的容器和镜像。在建立与配置镜像与容器时,这种方法十分简单且快速。如果你有任何问题,建议和反馈,请在下方的评论框里写下来,以便我们可以提升或者更新我们的文章。谢谢!祝生活快乐 :-)
---
via: <http://linoxide.com/linux-how-to/interactively-create-docker-container/>
作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/interactively-create-docker-container/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c61d0>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,485 | 5个有趣的Linux命令行技巧 | http://www.tecmint.com/5-linux-command-line-tricks/ | 2015-05-22T07:32:00 | [
"命令行"
] | https://linux.cn/article-5485-1.html | 你有将Linux物尽其用吗?对很多Linux用户来说,有很多看起来是技巧的有用特性。有些时候你会需要这些技巧。本文会帮助你更好得使用一些命令,发挥其更强大的功能。
![5个命令行技巧](/data/attachment/album/201505/21/223351gqbpks8pu904xpk4.jpg)
*图1:5个命令行技巧*
我们开始一个新的系列,在这里我们还会写一些技巧,并且用尽量小的篇幅写清楚。
### 1. 我们可以使用[`history`命令](/article-1143-1.html)来查看曾经运行过的命令。
这里是一个`history`命令的示例输出。
```
# history
```
![history命令例子](/data/attachment/album/201505/21/223352r48ra47xx769218p.gif)
*图2:history命令例子*
从`history`命令输出看,很明显,命令的执行时间没有被打出来。有解决方法吗?有的!运行如下命令:
```
# HISTTIMEFORMAT="%d/%m/%y %T "
# history
```
如果你想让这个修改永久生效,添加如下的一行内容到`~/.bashrc`文件中:
```
export HISTTIMEFORMAT="%d/%m/%y %T "
```
然后,在终端中运行:
```
# source ~/.bashrc
```
命令和选项的解释:
* history – 查看运行过的命令
* HISTIMEFORMAT – 设置时间格式的环境变量
* %d – 天
* %m – 月
* %y – 年
* %T – 时间戳
* source – 简而言之就是将文件内容发送给shell来执行
* .bashrc – BASH以交互方式启动时运行的脚本文件
![history命令输出的日志](/data/attachment/album/201505/21/223354h5v7p4clpd2pv47l.gif)
*图3:`history`命令输出的日志*
### 2. 如何测试磁盘写入速度?
一行`dd`命令脚本就可以实现。
```
# dd if=/dev/zero of=/tmp/output.img bs=8k count=256k conv=fdatasync; rm -rf /tmp/output.img
```
![dd命令例子](/data/attachment/album/201505/21/223355vrnrpi6ip7n6lnsn.gif)
*图4:`dd`命令例子*
命令和选项的解释:
* dd – 转换和复制文件
* if=/dev/zero – 指定输入文件,默认为stdin(标准输入)
* of=/tmp/output.img – 指定输出文件,默认为stdout(标准输出)
* bs – 一次读和写的块大小,最大可以以MB为单位
* count – 复制次数
* conv – 使用逗号分隔的策略来转换文件(LCTT 译注:比如将大写字母转换成小写,echo AA | dd conv=lcase)
* rm – 删除文件和目录
* -rf – (-r) 递归地删除目录和其中的内容,(-f)强行删除而不输出确认信息
### 3. 你如何获取吃掉你磁盘空间的最大的6个文件?
一个使用[`du`命令](http://www.tecmint.com/check-linux-disk-usage-of-files-and-directories/)的简单单行脚本即可实现,`du`命令主要用于获取文件的空间使用情况。
```
# du -hsx * | sort -rh | head -6
```
![获取磁盘空间使用情况的方法](/data/attachment/album/201505/21/223356znknboirks9kkobk.gif)
*图5:获取磁盘空间使用情况的方法*
命令和选项的解释:
* du – 估计文件的空间使用情况
* -hsx – (-h)更易读的格式,(-s)汇总输出,(-x)跳过其他文件系统的文件
* sort – 对文本文件按行排序
* -rf – (-r)将比较的结果逆序输出,(-f)忽略大小写
* head – 输出文件的头几行
### 4. 获取一个文件的详细状态信息
可以使用`stat`命令
```
# stat filename_ext (例如:stat abc.pdf)
```
![获取文件的详细信息](/data/attachment/album/201505/21/223359u0mh88m1rmih6vrh.gif)
*图6:获取文件的详细信息*
### 5. 显示帮助
最后一个技巧是为那些入门者准备的,如果你是有经验的用户,可能不需要它,除非你想从中寻找乐趣。入门者可能有Linux命令行恐惧症,下面的命令会随机显示一个man手册页。对入门者来说,好处是总会学到新的东西,而且不会厌倦。
```
# man $(ls /bin | shuf | head -1)
```
![查看随机的man手册页](/data/attachment/album/201505/21/223404fu8wtlhpop8we8ov.gif)
*图7:查看随机的man手册页*
命令和选项的解释:
* man – Linux man手册
* ls – 列出文件
* /bin – 系统可执行文件的路径
* shuf – 把输入内容按行随机打乱并输出
* head – 输出文件的头几行
这就是所有的内容了。如果你知道任何类似的技巧,可以分享给我们,我们会用你的语言在网站上发表出来。
不要忘记在下边评论框中留下有价值的反馈。保持联系。可以点赞或者将本文分享来帮助我们更好地传播内容。
---
via: <http://www.tecmint.com/5-linux-command-line-tricks/>
作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[goreliu](https://github.com/goreliu) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,486 | 如何在 Linux 中产生、加密或解密随机密码 | http://www.tecmint.com/generate-encrypt-decrypt-random-passwords-in-linux/ | 2015-05-22T13:47:00 | [
"密码",
"pwgen",
"makepasswd"
] | https://linux.cn/article-5486-1.html | 我们一直积极地提供有关 Linux 技巧的系列文章,如果你错过了这个系列的最新文章,你或许可以去访问下面的链接。
* [Linux 中 5 个有趣的命令行技巧](/article-5485-1.html)
在这篇文章中,我们将分享一些有趣 Linux 技巧,内容是有关如何产生随机密码以及加密或解密这些经过加盐或没有加盐处理的密码。
安全是数字时代中的一个主要话题。在电脑,email,云端,手机,文档和其他的场合中,我们都会使用到密码。众所周知,选择密码的基本原则是 “易记,难猜”。考虑过使用基于机器自动生成的密码吗?相信我,Linux 非常擅长这方面的工作。
![](/data/attachment/album/201505/21/225112hk0bbg8yyg11q0wg.jpg)
**1. 使用命令 `pwgen` 来生成一个长度为 10 个字符的独特的随机密码。假如你还没有安装 pwgen,请使用 Apt 或 YUM 等包管理器来安装它。**
```
$ pwgen 10 1
```
![生成一个独特的随机密码](/data/attachment/album/201505/21/225113cj49vaognvzanfov.gif)
*生成一个独特的随机密码*
一口气生成若干组长度为 50 个字符的唯一的随机密码!
```
$ pwgen 50
```
![生成多组随机密码](/data/attachment/album/201505/21/225114g0xf9gdzgxx5ce9x.gif)
*生成多组随机密码*
**2. 你还可以使用 `makepasswd` 来每次生成一个给定长度的独特的随机密码。在你把玩 makepasswd 命令之前,请确保你已经安装了它。如若没有安装它,试试使用 Apt 或 YUM 包管理器来安装 `makepasswd`这个软件包。**
生成一个长度为 10 个字符的随机密码。该命令产生的密码的长度默认为 10。
```
$ makepasswd
```
![使用 makepasswd 生成独特的密码](/data/attachment/album/201505/21/225115f297xwyziwq23324.gif)
*使用 makepasswd 生成独特的密码*
生成一个长度为 50 个字符的随机密码。
```
$ makepasswd --char 50
```
![生成长度为 50 的密码](/data/attachment/album/201505/21/225116y1mv05n6ha7171n3.gif)
*生成长度为 50 的密码*
生成 7 个长度为 20 个字符的随机密码。
```
$ makepasswd --char 20 --count 7
```
![](/data/attachment/album/201505/21/225122qvenx1t8xsozd18s.gif)
**3. 使用带“盐”的 Crypt(注:这里应该指的是一个函数,可以参考[这里](http://man7.org/linux/man-pages/man3/crypt.3.html) ) 来加密一个密码。提供手动或自动添加 “盐”。**
对于那些不清楚 **盐** 的意义的人,这里的 “盐” 指的是一个随机数据,它作为密码生成函数的一个额外的输入, 目的是保护密码免受词典攻击。
在执行下面的操作前,请确保你已经安装了 `mkpasswd`。
下面的命令将带 “盐” 加密一个密码。“盐” 的值是随机自动生成的。所以每次你运行下面的命令时,都将产生不同的输出,因为它每次接受了随机取值的 “盐”。
```
$ mkpasswd tecmint
```
![使用 Crypt 来加密密码](/data/attachment/album/201505/21/225122r7n2nkei25ivckqn.gif)
*使用 Crypt 来加密密码*
现在让我们来手动定义 “盐” 的值。每次它将产生相同的结果。请注意你可以输入任何你想输入的值来作为 “盐” 的值。
```
$ mkpasswd tecmint -s tt
```
![带“盐”加密密码](/data/attachment/album/201505/21/225124fj6r3pfj2dq0p25w.gif)
*带“盐”加密密码*
另外, mkpasswd 还是交互式的,假如你在命令中没有提供密码,它将主动询问你来输入密码。
**4. 使用 aes-256-cbc 加密算法并使用带“盐”的密码(如 “tecmint”) 加密一个字符串(如 “Tecmint-is-a-Linux-Community”)。**
```
# echo Tecmint-is-a-Linux-Community | openssl enc -aes-256-cbc -a -salt -pass pass:tecmint
```
![在 Linux 中加密一个字符串](/data/attachment/album/201505/21/225125mhz0g6ao99o5v006.gif)
*在 Linux 中加密一个字符串*
在上面例子中, [echo 命令](http://linux.cn/article-3948-1.html)的输出通过管道传递给了 openssl 命令,使得该输出通过加密编码方式(enc:Encoding with Cipher ) 所加密,这个过程中使用了 aes-256-cbc 加密算法,并附带了密码 (tecmint) 和 “盐” 。
**5. 使用 openssl 命令的 -aes-256-cbc 解密选项来解密上面的字符串。**
```
# echo U2FsdGVkX18Zgoc+dfAdpIK58JbcEYFdJBPMINU91DKPeVVrU2k9oXWsgpvpdO/Z | openssl enc -aes-256-cbc -a -d -salt -pass pass:tecmint
```
![在 Linux 中解密字符串](/data/attachment/album/201505/21/225126qhhaaupzazagouip.gif)
*在 Linux 中解密字符串*
现在就是这些内容了。
保持联系,保持连接,敬请关注。不要忘了在下面的评论中提供给我们您有价值的反馈。
---
via: <http://www.tecmint.com/generate-encrypt-decrypt-random-passwords-in-linux/>
作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,487 | Linux有问必答:nginx网络服务器上如何阻止特定用户代理(UA) | http://ask.xmodulo.com/block-specific-user-agents-nginx-web-server.html | 2015-05-22T08:30:00 | [
"nginx",
"爬虫"
] | /article-5487-1.html |
>
> **问题**: 我注意到有一些机器人经常访问我的nginx驱动的网站,并且进行一些攻击性的扫描,导致消耗掉了我的网络服务器的大量资源。我一直尝试着通过用户代理符串来阻挡这些机器人。我怎样才能在nginx网络服务器上阻挡掉特定的用户代理呢?
>
>
>
现代互联网滋生了大量各种各样的恶意机器人和网络爬虫,比如像恶意软件机器人、垃圾邮件程序或内容刮刀,这些恶意工具一直偷偷摸摸地扫描你的网站,干些诸如检测潜在网站漏洞、收获电子邮件地址,或者只是从你的网站偷取内容。大多数机器人能够通过它们的“用户代理”签名字符串来识别。
作为第一道防线,你可以尝试通过将这些机器人的用户代理字符串添加入robots.txt文件来阻止这些恶意软件机器人访问你的网站。但是,很不幸的是,该操作只针对那些“行为良好”的机器人,这些机器人被设计遵循robots.txt的规范。许多恶意软件机器人可以很容易地忽略掉robots.txt,然后随意扫描你的网站。
另一个用以阻挡特定机器人的途径,就是配置你的网络服务器,通过特定的用户代理字符串拒绝要求提供内容的请求。本文就是说明如何**在nginx网络服务器上阻挡特定的用户代理**。
![](/data/attachment/album/201505/21/230248mh6hqj5x770q61ni.jpg)
### 在Nginx中将特定用户代理列入黑名单
要配置用户代理阻挡列表,请打开你的网站的nginx配置文件,找到`server`定义部分。该文件可能会放在不同的地方,这取决于你的nginx配置或Linux版本(如,`/etc/nginx/nginx.conf`,`/etc/nginx/sites-enabled/<your-site>`,`/usr/local/nginx/conf/nginx.conf`,`/etc/nginx/conf.d/<your-site>`)。
```
server {
listen 80 default_server;
server_name xmodulo.com;
root /usr/share/nginx/html;
....
}
```
在打开该配置文件并找到 `server` 部分后,添加以下 if 声明到该部分内的某个地方。
```
server {
listen 80 default_server;
server_name xmodulo.com;
root /usr/share/nginx/html;
# 大小写敏感的匹配
if ($http_user_agent ~ (Antivirx|Arian) {
return 403;
}
#大小写无关的匹配
if ($http_user_agent ~* (netcrawl|npbot|malicious)) {
return 403;
}
....
}
```
如你所想,这些 if 声明使用正则表达式匹配了任意不良用户字符串,并向匹配的对象返回403 HTTP状态码。 `$http_user_agent`是HTTP请求中的一个包含有用户代理字符串的变量。‘~’操作符针对用户代理字符串进行大小写敏感匹配,而‘~\*’操作符则进行大小写无关匹配。‘|’操作符是逻辑或,因此,你可以在 if 声明中放入众多的用户代理关键字,然后将它们全部阻挡掉。
在修改配置文件后,你必须重新加载nginx以激活阻挡:
```
$ sudo /path/to/nginx -s reload
```
你可以通过使用带有 “--user-agent” 选项的 wget 测试用户代理阻挡。
```
$ wget --user-agent "malicious bot" http://<nginx-ip-address>
```
![](/data/attachment/album/201505/21/230250mxzyf3su08fksv3c.jpg)
### 管理Nginx中的用户代理黑名单
目前为止,我已经展示了在nginx中如何阻挡一些用户代理的HTTP请求。如果你有许多不同类型的网络爬虫机器人要阻挡,又该怎么办呢?
由于用户代理黑名单会增长得很大,所以将它们放在nginx的server部分不是个好点子。取而代之的是,你可以创建一个独立的文件,在该文件中列出所有被阻挡的用户代理。例如,让我们创建/etc/nginx/useragent.rules,并定义以下面的格式定义所有被阻挡的用户代理的图谱。
```
$ sudo vi /etc/nginx/useragent.rules
```
---
```
map $http_user_agent $badagent {
default 0;
~*malicious 1;
~*backdoor 1;
~*netcrawler 1;
~Antivirx 1;
~Arian 1;
~webbandit 1;
}
```
与先前的配置类似,‘~\*’将匹配以大小写不敏感的方式匹配关键字,而‘~’将使用大小写敏感的正则表达式匹配关键字。“default 0”行所表达的意思是,任何其它文件中未被列出的用户代理将被允许。
接下来,打开你的网站的nginx配置文件,找到里面包含 http 的部分,然后添加以下行到 http 部分某个位置。
```
http {
.....
include /etc/nginx/useragent.rules
}
```
注意,该 include 声明必须出现在 server 部分之前(这就是为什么我们将它添加到了 http 部分里)。
现在,打开nginx配置定义你的服务器的部分,添加以下 if 声明:
```
server {
....
if ($badagent) {
return 403;
}
....
}
```
最后,重新加载nginx。
```
$ sudo /path/to/nginx -s reload
```
现在,任何包含有`/etc/nginx/useragent.rules`中列出的关键字的用户代理将被nginx自动禁止。
---
via: <http://ask.xmodulo.com/block-specific-user-agents-nginx-web-server.html>
作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /block-specific-user-agents-nginx-web-server.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c51b0>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)")) | null |
5,488 | 如何在Fedora / CentOS上面升级Docker 1.6 | http://linoxide.com/linux-how-to/docker-1-6-features-upgrade-fedora-centos/ | 2015-05-22T10:26:00 | [
"Docker"
] | /article-5488-1.html | Docker,一个流行的将软件打包的开源容器平台,已经有了新的1.6版,增加了许多新的特性。该版本主要更新了Docker Registry、Engine、 Swarm、 Compose 和 Machine等方面。这次发布旨在提升性能、改善开发者和系统管理员的体验。让我们来快速看看有哪些新特性吧。
**Docker Registry (2.0)**是一项推送Docker镜像用于存储和分享的服务,因为面临加载下的体验问题而经历了架构的改变。它仍然向后兼容。Docker Registry的编写语言现在从Python改为Google的Go语言了,以提升性能。与Docker Engine 1.6结合后,拉取镜像的能力更快了。早先的镜像是队列式输送的,而现在是并行的啦。
**Docker Engine (1.6)**相比之前的版本有很大的提高。目前支持容器与镜像的标签。通过标签,你可以附加用户自定义的元数据到镜像和容器上,而镜像和容器反过来可以被其他工具使用。标签对正在运行的应用是不可见的,可以用来加速搜索容器和镜像。
Windows版本的Docker客户端可以连接到远程的运行在linux上的Docker Engine。
Docker目前支持日志驱动API,这允许我们发送容器日志给系统如Syslog,或者第三方。这将会使得系统管理员受益。
**Swarm (0.2)**是一个Docker集群工具,可以将一个Docker主机池转换为一个虚拟主机。在新特性里,容器甚至被放在了可用的节点上。通过添加更多的Docker命令,努力支持完整的Docker API。将来,使用第三方驱动来集群会成为可能。
**Compose (1.2)** 是一个Docker里定义和运行复杂应用的工具, 也得到了升级。在新版本里,可以创建多个子文件,而不是用一个没有结构的文件描述一个多容器应用。
通过**Machine (0.2)**,我们可以很容易地在本地计算机、云和数据中心上搭建Docker主机。新的发布版本为开发者提供了一个相对干净地驱动界面来编写驱动。Machine集中控制供给,而不是每个独立的驱动。增加了新的命令,可以用来生成主机的TLS证书,以提高安全性。
![](/data/attachment/album/201505/22/003038xvvzy3om3003tv8y.jpg)
### 在Fedora / CentOS 上的升级指导
在这一部分里,我们将会学习如何在Fedora和CentOS上升级已有的docker到最新版本。请注意,目前的Docker仅运行在64位的架构上,Fedora和CentOS都源于RedHat,命令的使用是差不多相同的,除了在Fedora20和CentOS6.5里Docker包被叫做“docker-io”。
如果你系统之前没有安装Docker,使用下面命令安装:
```
"yum install docker-io" – on Fedora20 / CentOS6.5
"yum install docker" - on Fedora21 / CentOS7
```
在升级之前,备份一下docker镜像和容器卷是个不错的主意。
参考[“将文件系统打成 tar 包”](http://docs.docker.com/reference/commandline/cli/#export)与[“卷备份、恢复或迁移”](http://docs.docker.com/userguide/dockervolumes/#backup-restore-or-migrate-data-volumes),获取更多信息。
目前,测试系统安装了Docker1.5。样例输出显示是来自一个Fedora20的系统。
验证当前系统安装的Docker版本
```
[root@TestNode1 ~]#sudo docker -v
Docker version 1.5.0, build a8a31ef/1.5.0
```
如果Docker正在运行,先停掉。
```
[root@TestNode1 ~]# sudo systemctl stop docker
```
使用yum update升级到最新版,但是写这篇文章的时候,仓库并不是最新版本(1.6),因此你需要使用二进制的升级方法。
```
[root@TestNode1 ~]#sudo yum -y update docker-io
No packages marked for update
[root@TestNode1 ~]#sudo wget https://get.docker.com/builds/Linux/x86_64/docker-latest -O /usr/bin/docker
--2015-04-19 13:40:48-- https://get.docker.com/builds/Linux/x86_64/docker-latest
Resolving get.docker.com (get.docker.com)... 162.242.195.82
Connecting to get.docker.com (get.docker.com)|162.242.195.82|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: 15443598 (15M) [binary/octet-stream]
Saving to: /usr/bin/docker
100%[======================================>] 15,443,598 8.72MB/s in 1.7s
2015-04-19 13:40:50 (8.72 MB/s) - /usr/bin/docker saved
```
检查更新后的版本
```
[root@TestNode1 ~]#sudo docker -v
Docker version 1.6.0, build 4749651
```
重启docker服务
```
[root@TestNode1 ~]# sudo systemctl start docker
```
确认Docker在运行
```
[root@TestNode1 ~]# docker images
REPOSITORY TAG IMAGE ID CREATED VIRTUAL SIZE
fedora latest 834629358fe2 3 months ago 241.3 MB
[root@TestNode1 ~]# docker run fedora /bin/echo Hello World
Hello World
```
CentOS安装时需要**注意**,在CentOS上安装完Docker后,当你试图启动Docker服务的时候,你可能会得到错误的信息,如下所示:
```
docker.service - Docker Application Container Engine
Loaded: loaded (/usr/lib/systemd/system/docker.service; disabled)
Active: failed (Result: exit-code) since Mon 2015-04-20 03:24:24 EDT; 6h ago
Docs: http://docs.docker.com
Process: 21069 ExecStart=/usr/bin/docker -d $OPTIONS $DOCKER_STORAGE_OPTIONS $DOCKER_NETWORK_OPTIONS $ADD_REGISTRY $BLOCK_REGISTRY $INSECURE_REGISTRY (code=exited, status=127)
Main PID: 21069 (code=exited, status=127)
Apr 20 03:24:24 centos7 systemd[1]: Starting Docker Application Container E.....
Apr 20 03:24:24 centos7 docker[21069]: time="2015-04-20T03:24:24-04:00" lev...)"
Apr 20 03:24:24 centos7 docker[21069]: time="2015-04-20T03:24:24-04:00" lev...)"
Apr 20 03:24:24 centos7 docker[21069]: /usr/bin/docker: relocation error: /...ce
Apr 20 03:24:24 centos7 systemd[1]: docker.service: main process exited, co.../a
Apr 20 03:24:24 centos7 systemd[1]: Failed to start Docker Application Cont...e.
Apr 20 03:24:24 centos7 systemd[1]: Unit docker.service entered failed state.
```
这是一个已知的bug(<https://bugzilla.redhat.com/show_bug.cgi?id=1207839>),需要将设备映射升级到最新。
```
[root@centos7 ~]# rpm -qa device-mapper
device-mapper-1.02.84-14.el7.x86_64
[root@centos7 ~]# yum update device-mapper
[root@centos7 ~]# rpm -qa device-mapper
device-mapper-1.02.93-3.el7.x86_64
[root@centos7 ~]# systemctl start docker
```
### 总结
尽管docker技术出现时间不长,但很快就变得非常流行了。它使得开发者的生活变得轻松,运维团队可以快速独立地创建和部署应用。通过该公司的发布,Docker的快速更新,产品质量的提升,满足用户需求,未来对于Docker来说一片光明。
---
via: <http://linoxide.com/linux-how-to/docker-1-6-features-upgrade-fedora-centos/>
作者:[B N Poornima](http://linoxide.com/author/bnpoornima/) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/docker-1-6-features-upgrade-fedora-centos/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c5de0>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,491 | 如何在 CentOS Linux 中配置 MariaDB 复制 | http://linoxide.com/how-tos/configure-mariadb-replication-centos-linux/ | 2015-05-22T13:00:00 | [
"Mariadb",
"数据库复制",
"主从"
] | /article-5491-1.html | 这是一个创建数据库重复版本的过程。复制过程不仅仅是复制一个数据库,同时也包括从主节点到一个从节点的更改同步。但这并不意味着从数据库就是和主数据库完全相同的副本,因为复制可以配置为只复制表结构、行或者列,这叫做局部复制。复制保证了特定的配置对象在不同的数据库之间保持一致。
### Mariadb 复制概念
**备份** :复制可以用来进行数据库备份。例如,当你做了主->从复制。如果主节点数据丢失(比如硬盘损坏),你可以从从节点中恢复你的数据库。
**扩展** :你可以使用主->从复制作为扩展解决方案。例如,如果你有一些大的数据库以及SQL查询,使用复制你可以将这些查询分离到每个复制节点。写入操作的SQL应该只在主节点进行,而只读查询可以在从节点上进行。
**分发解决方案** :你可以用复制来进行分发。例如,你可以将不同的销售数据分发到不同的数据库。
**故障解决方案** : 假如你建立有主节点->从节点1->从节点2->从节点3的复制结构。你可以为主节点写脚本监控,如果主节点出故障了,脚本可以快速的将从节点1切换为新的主节点,这样复制结构变成了主节点->从节点1->从节点2,你的应用可以继续工作而不会停机。
![](/data/attachment/album/201505/22/130103gzr8t9iuus1vshw1.jpg)
### 复制的简单图解示范
![mysql 复制原理](/data/attachment/album/201505/22/130107jzfatvl4uclzcytt.png)
开始之前,你应该知道什么是**二进制日志文件**以及 Ibdata1。
二进制日志文件中包括关于数据库,数据和结构的所有更改的记录,以及每条语句的执行了多长时间。二进制日志文件包括一系列日志文件和一个索引文件。这意味着主要的SQL语句,例如CREATE, ALTER, INSERT, UPDATE 和 DELETE 会放到这个日志文件中;而例如SELECT这样的语句就不会被记录,它们可以被记录到普通的query.log文件中。
而 **Ibdata1** 简单的说据是一个包括所有表和所有数据库信息的文件。
### 主服务器配置
首先升级服务器
```
sudo yum install update -y && sudo yum install upgrade -y
```
我们工作在centos7 服务器上
```
sudo cat /etc/redhat-release
CentOS Linux release 7.0.1406 (Core)
```
安装 MariaDB
```
sudo yum install mariadb-server -y
```
启动 MariaDB 并启用随服务器启动
```
sudo systemctl start mariadb.service
sudo systemctl enable mariadb.service
```
输出如下:
```
ln -s '/usr/lib/systemd/system/mariadb.service' '/etc/systemd/system/multi-user.target.wants/mariadb.service'
```
检查 MariaDB 状态
```
sudo service mariadb status
```
或者使用
```
sudo systemctl is-active mariadb.service
```
输出如下:
```
Redirecting to /bin/systemctl status mariadb.service
mariadb.service - MariaDB database server
Loaded: loaded (/usr/lib/systemd/system/mariadb.service; enabled)
```
设置 MariaDB 密码
```
mysql -u root
mysql> use mysql;
mysql> update user set password=PASSWORD("SOME_ROOT_PASSWORD") where User='root';
mysql> flush privileges;
mysql> exit
```
这里 SOME\_ROOT*\_*PASSWORD 是你的 root 密码。 例如我用"q"作为密码,然后尝试登录:
```
sudo mysql -u root -pSOME_ROOT_PASSWORD
```
输出如下:
```
Welcome to the MariaDB monitor. Commands end with ; or \g.
Your MariaDB connection id is 5
Server version: 5.5.41-MariaDB MariaDB Server
Copyright (c) 2000, 2014, Oracle, MariaDB Corporation Ab and others.
```
输入 'help;' 或 '\h' 查看帮助信息。 输入 '\c' 清空当前输入语句。
让我们创建包括一些数据的表的数据库
创建数据库/模式
```
sudo mysql -u root -pSOME_ROOT_PASSWORD
mysql> create database test_repl;
```
其中:
```
test_repl - 将要被复制的模式的名字
```
输出:如下
```
Query OK, 1 row affected (0.00 sec)
```
创建 Persons 表
```
mysql> use test_repl;
CREATE TABLE Persons (
PersonID int,
LastName varchar(255),
FirstName varchar(255),
Address varchar(255),
City varchar(255)
);
```
输出如下:
```
mysql> MariaDB [test_repl]> CREATE TABLE Persons (
-> PersonID int,
-> LastName varchar(255),
-> FirstName varchar(255),
-> Address varchar(255),
-> City varchar(255)
-> );
Query OK, 0 rows affected (0.01 sec)
```
插入一些数据
```
mysql> INSERT INTO Persons VALUES (1, "LastName1", "FirstName1", "Address1", "City1");
mysql> INSERT INTO Persons VALUES (2, "LastName2", "FirstName2", "Address2", "City2");
mysql> INSERT INTO Persons VALUES (3, "LastName3", "FirstName3", "Address3", "City3");
mysql> INSERT INTO Persons VALUES (4, "LastName4", "FirstName4", "Address4", "City4");
mysql> INSERT INTO Persons VALUES (5, "LastName5", "FirstName5", "Address5", "City5");
```
输出如下:
```
Query OK, 5 row affected (0.00 sec)
```
检查数据
```
mysql> select * from Persons;
```
输出如下:
```
+----------+-----------+------------+----------+-------+
| PersonID | LastName | FirstName | Address | City |
+----------+-----------+------------+----------+-------+
| 1 | LastName1 | FirstName1 | Address1 | City1 |
| 1 | LastName1 | FirstName1 | Address1 | City1 |
| 2 | LastName2 | FirstName2 | Address2 | City2 |
| 3 | LastName3 | FirstName3 | Address3 | City3 |
| 4 | LastName4 | FirstName4 | Address4 | City4 |
| 5 | LastName5 | FirstName5 | Address5 | City5 |
+----------+-----------+------------+----------+-------+
```
### 配置 MariaDB 复制
你需要在主节点服务器上编辑 my.cnf文件来启用二进制日志以及设置服务器id。我会使用vi文本编辑器,但你可以使用任何你喜欢的,例如nano,joe。
```
sudo vi /etc/my.cnf
```
将下面的一些行写到[mysqld]部分。
```
log-basename=master
log-bin
binlog-format=row
server_id=1
```
输出如下:
![mariadb 配置主节点](/data/attachment/album/201505/22/130108yld2d6hmt2iditts.png)
然后重启 MariaDB:
```
sudo service mariadb restart
```
登录到 MariaDB 并查看二进制日志文件:
```
sudo mysql -u root -pq test_repl
mysql> SHOW MASTER STATUS;
```
输出如下:
```
+--------------------+----------+--------------+------------------+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB |
+--------------------+----------+--------------+------------------+
| mariadb-bin.000002 | 3913 | | |
+--------------------+----------+--------------+------------------+
```
**记住** : "File" 和 "Position" 的值。在从节点中你需要使用这些值
创建用来复制的用户
```
mysql> GRANT REPLICATION SLAVE ON *.* TO replication_user IDENTIFIED BY 'bigs3cret' WITH GRANT OPTION;
mysql> flush privileges;
```
输出如下:
```
Query OK, 0 rows affected (0.00 sec)
Query OK, 0 rows affected (0.00 sec)
```
在数据库中检查用户
```
mysql> select * from mysql.user WHERE user="replication_user"\G;
```
输出如下:
```
mysql> select * from mysql.user WHERE user="replication_user"\G;
*************************** 1. row ***************************
Host: %
User: replication_user
Password: *2AF30E7AEE9BF3AF584FB19653881D2D072FA49C
Select_priv: N
.....
```
从主节点创建 DB dump (将要被复制的所有数据的快照)
```
mysqldump -uroot -pSOME_ROOT_PASSWORD test_repl > full-dump.sql
```
其中:
```
SOME_ROOT_PASSWORD - 你设置的root用户的密码
test_repl - 将要复制的数据库的名称;
```
你需要在从节点中恢复 mysql dump (full-dump.sql)。重复需要这个。
### 从节点配置
所有这些命令需要在从节点中进行。
假设我们已经更新/升级了包括有最新的MariaDB服务器的 CentOS 7.x,而且你可以用root账号登陆到MariaDB服务器(这在这篇文章的第一部分已经介绍过)
登录到Maria 数据库控制台并创建数据库
```
mysql -u root -pSOME_ROOT_PASSWORD;
mysql> create database test_repl;
mysql> exit;
```
在从节点恢复主节点的数据
```
mysql -u root -pSOME_ROOT_PASSWORD test_repl < full-dump.sql
```
其中:
full-dump.sql - 你在测试服务器中创建的DB Dump。
登录到Maria 数据库并启用复制
```
mysql> CHANGE MASTER TO
MASTER_HOST='82.196.5.39',
MASTER_USER='replication_user',
MASTER_PASSWORD='bigs3cret',
MASTER_PORT=3306,
MASTER_LOG_FILE='mariadb-bin.000002',
MASTER_LOG_POS=3913,
MASTER_CONNECT_RETRY=10;
```
![mariadb 启用复制](/data/attachment/album/201505/22/130108g8474sk8oiwymmnk.png)
其中:
```
MASTER_HOST - 主节点服务器的IP
MASTER_USER - 主节点服务器中的复制用户
MASTER_PASSWORD - 复制用户密码
MASTER_PORT - 主节点中的mysql端口
MASTER_LOG_FILE - 主节点中的二进制日志文件名称
MASTER_LOG_POS - 主节点中的二进制日志文件位置
```
开启从节点模式
```
mysql> slave start;
```
输出如下:
```
Query OK, 0 rows affected (0.00 sec)
```
检查从节点状态
```
mysql> show slave status\G;
```
输出如下:
```
*************************** 1. row ***************************
Slave_IO_State: Waiting for master to send event
Master_Host: 82.196.5.39
Master_User: replication_user
Master_Port: 3306
Connect_Retry: 10
Master_Log_File: mariadb-bin.000002
Read_Master_Log_Pos: 4175
Relay_Log_File: mariadb-relay-bin.000002
Relay_Log_Pos: 793
Relay_Master_Log_File: mariadb-bin.000002
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
Replicate_Do_DB:
Replicate_Ignore_DB:
Replicate_Do_Table:
Replicate_Ignore_Table:
Replicate_Wild_Do_Table:
Replicate_Wild_Ignore_Table:
Last_Errno: 0
Last_Error:
Skip_Counter: 0
Exec_Master_Log_Pos: 4175
Relay_Log_Space: 1089
Until_Condition: None
Until_Log_File:
Until_Log_Pos: 0
Master_SSL_Allowed: No
Master_SSL_CA_File:
Master_SSL_CA_Path:
Master_SSL_Cert:
Master_SSL_Cipher:
Master_SSL_Key:
Seconds_Behind_Master: 0
Master_SSL_Verify_Server_Cert: No
Last_IO_Errno: 0
Last_IO_Error:
Last_SQL_Errno: 0
Last_SQL_Error:
Replicate_Ignore_Server_Ids:
Master_Server_Id: 1
1 row in set (0.00 sec)
```
到这里所有步骤都应该没问题,也不应该出现错误。
### 测试复制
在主节点服务器中添加一些条目到数据库
```
mysql -u root -pSOME_ROOT_PASSWORD test_repl
mysql> INSERT INTO Persons VALUES (6, "LastName6", "FirstName6", "Address6", "City6");
mysql> INSERT INTO Persons VALUES (7, "LastName7", "FirstName7", "Address7", "City7");
mysql> INSERT INTO Persons VALUES (8, "LastName8", "FirstName8", "Address8", "City8");
```
到从节点服务器中查看复制数据
```
mysql -u root -pSOME_ROOT_PASSWORD test_repl
mysql> select * from Persons;
+----------+-----------+------------+----------+-------+
| PersonID | LastName | FirstName | Address | City |
+----------+-----------+------------+----------+-------+
...................
| 6 | LastName6 | FirstName6 | Address6 | City6 |
| 7 | LastName7 | FirstName7 | Address7 | City7 |
| 8 | LastName8 | FirstName8 | Address8 | City8 |
+----------+-----------+------------+----------+-------+
```
你可以看到数据已经被复制到从节点。这意味着复制能正常工作。希望你能喜欢这篇文章。如果你有任何问题请告诉我们。
---
via: <http://linoxide.com/how-tos/configure-mariadb-replication-centos-linux/>
作者:[Bobbin Zachariah](http://linoxide.com/author/bobbin/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /how-tos/configure-mariadb-replication-centos-linux/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c55a0>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,493 | 使用一次性密码本通过 SSH 安全登录 Linux | http://xmodulo.com/secure-ssh-login-one-time-passwords-linux.html | 2015-05-22T15:36:49 | [
"OTP",
"SSH",
"验证",
"登录"
] | https://linux.cn/article-5493-1.html | 有人说,安全不是一个产品,而是一个过程(LCTT 注:安全公司 McAfee 认为,安全风险管理是一个方法论,而不是安全产品的堆叠)。虽然 SSH 协议被设计成使用加密技术来确保安全,但如果使用不当,别人还是能够破坏你的系统:比如弱密码、密钥泄露、使用过时的 SSH 客户端等,都能引发安全问题。
在考虑 SSH 认证方案时,大家普遍认为[公钥认证](/article-5444-1.html)比密码认证更安全。然而,公钥认证技术并不是为公共环境设置的,如果你在一台公用电脑上使用公钥认证登录 SSH 服务器,你的服务器已经毫无安全可言了,公用的电脑可能会记录你的公钥,或从你的内存中读取公钥。如果你不信任本地电脑,那你最好还是使用其他方式登录服务器。现在就是“一次性密码(OTP)”派上用场的时候了,就像名字所示,一次性密码只能被使用一次。这种一次性密码非常合适在不安全的环境下发挥作用,就算它被窃取,也无法再次使用。
有个生成一次性密码的方法是通过[谷歌认证器](/article-2642-1.html),但在本文中,我要介绍的是另一种 SSH 登录方案:[OTPW](http://www.cl.cam.ac.uk/%7Emgk25/otpw.html),它是个一次性密码登录的软件包。不像谷歌认证,OTPW 不需要依赖任何第三方库。
![](/data/attachment/album/201505/22/153659d0r0ehr03terbccf.jpg)
### OTPW 是什么
OTPW 由一次性密码生成器和 PAM 认证规则组成。在 OTPW 中一次性密码由生成器事先生成,然后由用户以某种安全的方式获得(比如打印到纸上)。另一方面,这些密码会通过 Hash 加密保存在 SSH 服务器端。当用户使用一次性密码登录系统时,OTPW 的 PAM 模块认证这些密码,并且保证它们不能再次使用。
### 步骤1:OTPW 的安装和配置
#### 在 Debian, Ubuntu 或 Linux Mint 发行版上
使用 apt-get 安装:
```
$ sudo apt-get install libpam-otpw otpw-bin
```
打开针对 SSH 服务的 PAM 配置文件(/etc/pam.d/sshd),注释掉下面这行(目的是禁用 PAM 的密码认证功能):
```
#@include common-auth
```
添加下面两行(用于打开一次性密码认证功能):
```
auth required pam_otpw.so
session optional pam_otpw.so
```
![](/data/attachment/album/201505/22/153704zx5555sdva58xjvz.jpg)
#### 在 Fedora 或 CentOS/RHEL 发行版上
在基于 RedHat 的发行版中没有编译好的 OTPW,所以我们需要使用源代码来安装它。
首先,安装编译环境:
```
$ sudo yum git gcc pam-devel
$ git clone https://www.cl.cam.ac.uk/~mgk25/git/otpw
$ cd otpw
```
打开 Makefile 文件,编辑以“PAMLIB=”开头的那行配置:
64 位系统:
```
PAMLIB=/usr/lib64/security
```
32 位系统:
```
PAMLIB=/usr/lib/security
```
编译安装。需要注意的是安装过程会自动重启 SSH 服务一下,所以如果你是使用 SSH 连接到服务器,做好被断开连接的准备吧(LCTT 译注:也许不会被断开连接,即便被断开连接,请使用原来的方式重新连接即可,现在还没有换成一次性口令方式。)。
```
$ make
$ sudo make install
```
现在你需要更新 SELinux 策略,因为 /usr/sbin/sshd 会往你的 home 目录写数据,而 SELinux 默认是不允许这么做的。如果没有使用 SELinux 服务(LCTT 注:使用 getenforce 命令查看结果,如果是 enforcing,就是打开了 SELinux 服务),请跳过这一步。
```
$ sudo grep sshd /var/log/audit/audit.log | audit2allow -M mypol
$ sudo semodule -i mypol.pp
```
接下来打开 PAM 配置文件(/etc/pam.d/sshd),注释下面这行(为了禁用密码认证):
```
#auth substack password-auth
```
添加下面两行(用于打开一次性密码认证功能):
```
auth required pam_otpw.so
session optional pam_otpw.so
```
#### 步骤2:配置 SSH 服务器,使用一次性密码
打开 /etc/ssh/sshd\_config 文件,设置下面三个参数。你要确保下面的参数不会重复存在,否则 SSH 服务器可能会出现异常。
```
UsePrivilegeSeparation yes
ChallengeResponseAuthentication yes
UsePAM yes
```
你还需要禁用默认的密码认证功能。另外可以选择开启公钥认证功能,那样的话你就可以在没有一次性密码的时候使用公钥进行认证。
```
PubkeyAuthentication yes
PasswordAuthentication no
```
重启 SSH 服务器。
Debian, Ubuntu 或 Linux Mint 发行版:
```
$ sudo service ssh restart
```
Fedora 或 CentOS/RHEL 7 发行版:
```
$ sudo systemctl restart sshd
```
(LCTT 译注:虽然这里重启了 sshd 服务,但是你当前的 ssh 连接应该不受影响,只是在你完成下述步骤之前,无法按照原有方式建立新的连接了。因此,保险起见,要么多开一个 ssh 连接,避免误退出当前连接;要么将重启 sshd 服务器步骤放到步骤3完成之后。)
#### 步骤3:使用 OTPW 产生一次性密码
之前提到过,你需要事先创建一次性密码,并保存起来。使用 otpw-gen 命令创建密码:
```
$ cd ~
$ otpw-gen > temporary_password.txt
```
![](/data/attachment/album/201505/22/153710ddu0m5d4uru100z4.jpg)
这个命令会让你输入密码前缀,当你以后登录的时候,你需要同时输入这个前缀以及一次性密码。密码前缀是另外一层保护,就算你的一次性密码表被泄漏,别人也无法通过暴力破解你的 SSH 密码。
设置好密码前缀后,这个命令会产生 280 个一次性密码(LCTT 译注:保存到 ~/.otpw 下),并将它们导出到一个文本文件中(如 temporary\_password.txt)。每个密码(默认是 8 个字符)由一个 3 位十进制数索引。你需要将这个密码表打印出来,并随身携带。
![](/data/attachment/album/201505/22/153712t23o2g8qjckp0m3k.jpg)
查看 ./.otpw 文件,它存放了一次性密码的 HASH 值。头 3 位十进制数与你随身携带的密码表的索引一一对应,在你登录 SSH 服务器的时候会被用到。
```
$ more ~/.otpw
```
---
```
OTPW1
280 3 12 8
191ai+:ENwmMqwn
218tYRZc%PIY27a
241ve8ns%NsHFmf
055W4/YCauQJkr:
102ZnJ4VWLFrk5N
2273Xww55hteJ8Y
1509d4b5=A64jBT
168FWBXY%ztm9j%
000rWUSdBYr%8UE
037NvyryzcI+YRX
122rEwA3GXvOk=z
```
### 测试一次性密码登录 SSH 服务器
使用普通的方式登录 SSH 服务器:
```
$ ssh user@remote_host
```
如果 OTPW 成功运行,你会看到一点与平时登录不同的地方:
```
Password 191:
```
现在打开你的密码表,找到索引号为 191 的密码。
```
023 kBvp tq/G 079 jKEw /HRM 135 oW/c /UeB 191 fOO+ PeiD 247 vAnZ EgUt
```
从上表可知,191 号密码是“fOO+PeiD”。你需要加上密码前缀,比如你设置的前缀是“000”,则你实际需要输入的密码是“000fOO+PeiD”。
成功登录后,你这次输入的密码自动失效。查看 ~/.otpw 文件,你会发现第一行变成“---------------”,这表示 191 号密码失效了。
```
OTPW1
280 3 12 8
---------------
218tYRZc%PIY27a
241ve8ns%NsHFmf
055W4/YCauQJkr:
102ZnJ4VWLFrk5N
2273Xww55hteJ8Y
1509d4b5=A64jBT
168FWBXY%ztm9j%
000rWUSdBYr%8UE
037NvyryzcI+YRX
122rEwA3GXvOk=z
```
### 总结
在这个教程中,我介绍了如何使用 OTPW 工具来设置一次性登录密码。你也许意识到了在这种双因子的认证方式中,打印一张密码表让人感觉好 low,但是这种方式是最简单的,并且不用依赖任何第三方软件。无论你用哪种方式创建一次性密码,在你需要在一个不可信任的环境登录 SSH 服务器的时候,它们都很有用。你可以就这个主题来分享你的经验和观点。
---
via: <http://xmodulo.com/secure-ssh-login-one-time-passwords-linux.html>
作者:[Dan Nanni](http://xmodulo.com/author/nanni) 译者:[bazz2](https://github.com/bazz2) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,498 | 微软开源了WCF框架 | http://www.phoronix.com/scan.php?page=news_item&px=Microsoft-Open-Source-WCF | 2015-05-24T23:00:02 | [
"WCF",
"微软"
] | https://linux.cn/article-5498-1.html | 微软于今日(2015/5/20)宣布了针对 .NET Core 的重大开源:WCF(Windows Communication Foundation)。
![](/data/attachment/album/201505/24/230007w1v2c1kq19mz9mjj.png)
如[MSDN](https://msdn.microsoft.com/en-us/library/ms731082%28v=vs.110%29.aspx)中的描述:“WCF是一个构建面向服务应用的框架。使用WCF,你可以从一个服务终端给另一个发送异步消息。服务终端可以是托管在IIS中连续可用的服务的一部分,也可以是托管在某个程序上的服务。服务终端可以是请求服务端数据的客户端。消息可以是一个字符或者XML,也可以是复杂的二进制流。”
它的[代码放在GitHub](https://github.com/dotnet/wcf),“包含了Window桌面中完整WCF框架的一部分,它支持已经可用于构建Window Store上的WCF应用的库。这些主要是基于客户端,方便移动设备和中间层服务器使用WCF进行通信。”
更多的关于微软开源 WCF 的细节查看[dotNETFoundation.org blog](http://www.dotnetfoundation.org/blog/wcf-is-open-source)的公告。
WCF听上去有点像Linux中用于进程/服务之间的进程间通讯的D-BUS。
---
via: <http://www.phoronix.com/scan.php?page=news_item&px=Microsoft-Open-Source-WCF>
作者:[Michael Larabel](http://www.michaellarabel.com/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,499 | 更漂亮的 Square 2.0图标包 | http://itsfoss.com/square-2-0-icon-pack-linux/ | 2015-05-25T07:06:00 | [
"主题",
"图标",
"Square"
] | https://linux.cn/article-5499-1.html | ![](/data/attachment/album/201505/24/230752gpvsp8zh6nqg509p.jpg)
优雅、现代的[Square图标主题](http://gnome-look.org/content/show.php/Square?content=163513)最近更新到了2.0版,它比以前更漂亮了。Square图标包与其他主要的桌面环境如**Unity、 GNOME、KDE、 MATE等等**兼容。这意味着你可以在所有的流行Linux发行版如Ubuntu、Fedora、Linux Mint、elementary OS等等中使用它。 这个图标包估计包含超过了15000个图标。
### 在Linux中安装Square 2.0图标包
有两种不同的Square图标,暗色和亮色。基于你的喜好,你可以选择二者之一。出于体验的目的,我建议你两个主题包都下载。
你可以用下面的链接下载图标包。文件存储在Google Drive,因此如果你没有看见像[SourceForge](http://sourceforge.net/)这样标准的下载网站时不要怀疑。
* [Square Dark Icons](http://gnome-look.org/content/download.php?content=163513&id=1&tan=62806435)
* [Square Light Icons](http://gnome-look.org/content/download.php?content=163513&id=2&tan=19789941)
要使用图标主题,解压下载的文件到~/.icons文件夹下。如果它不存在,就创建它。当这些文件放好后,基于你的桌面环境,使用一个工具来改变图标主题。我以前写了一些关于这个主题的教程。如果你需要额外的帮助,那么欢迎指出来:
* [如何在Ubuntu Unity中改变主题](http://itsfoss.com/how-to-install-themes-in-ubuntu-13-10/)
* [如何在GNOME Shell中改变主题](http://itsfoss.com/install-switch-themes-gnome-shell/)
* [如何在Linux Mint中改变主题](http://itsfoss.com/install-icon-linux-mint/)
* [如何在Elementary OS Freya中改变主题](http://itsfoss.com/install-themes-icons-elementary-os-freya/)
### 试一下
这是我用Square图标在Ubuntu 14.04中的效果。我背景使用的是[Ubuntu 15.04 默认壁纸](http://itsfoss.com/default-wallpapers-ubuntu-1504/)。
![](/data/attachment/album/201505/24/230753jdyr5zg5rcdmr5f5.jpg)
Square主题中几个图标的样子:
![](/data/attachment/album/201505/24/230755w9opfoxebkom17ko.jpg)
你觉得怎么样?你认为它是[Ubuntu 14.04中最佳的图标主题](http://itsfoss.com/best-icon-themes-ubuntu-1404/)之一么?你会分享它并期待更多关于自定义Linux桌面的文章么?
---
via: <http://itsfoss.com/square-2-0-icon-pack-linux/>
作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,501 | 在 CentOS 7.x / Fedora 21 上面体验 PHP 7.0 | http://linoxide.com/linux-how-to/install-php-7-centos-7-fedora-21/ | 2015-05-25T09:39:09 | [
"PHP 7",
"PHP"
] | /article-5501-1.html | PHP是一种为我们熟知的通用服务器网页脚本语言。非常多的在线网站都是用PHP编写的。PHP这些年来一直在持续进化,丰富其功能,变得易于使用,更好地组织的脚本语言。目前PHP的开发团队正筹备下一个PHP版本的发行,名字是PHP 7。现在的PHP版本为PHP 5.6,可能你清楚PHP 6已经流产了,PHP 7的支持者们不希望下一个重要的版本被其他分支混淆,即过去已经停止很久的PHP 6。所以决定下一个PHP主要的发行版本叫PHP 7,而不是PHP 6。PHP 7.0预计在今年十一月份发行。
在下一代主要PHP版本里有一些不错的功能:
* 为了改善执行效率与内存占用,新的版本添加了PHPNG功能。
* 引入了JIT引擎来动态编译Zend操作码为自然机器码,以此来达到更快的处理性能。这项功能允许随后的程序调用同一份代码,这样会运行快很多。
* AST(抽象语法树)是最新添加的功能,它可以增强支持PHP的扩展性和用户应用。
* 添加异步编程功能以支持同一个请求中的并行任务。
* 新的版本会支持独立的多线程网页服务器,这样可以使用一个单独的存储池处理很多并发的请求。
![](/data/attachment/album/201505/25/093913g7xok2izc7is2dol.png)
### 在CentOS/Fedora上安装PHP 7
让我们来看看怎样在CentOS 7和Fedora 21安装PHP7。为了安装PHP7,我们首先需要克隆php-src 仓库。当克隆工作完成,我们再配置和编译它。进行下一步之前,我们要确保已经在LInux系统下安装了如下的组件,否则PHP编译会返回错误中止。
* Git
* autoconf
* gcc
* bison
所有上面提到的要求可以使用Yum软件包管理器安装。以下一条命令即可完成:
```
yum install git autoconf gcc bison
```
准备好开始安装PHP7了吗?让我们先创建一个PHP7目录,作为你的当前工作目录。
```
mkdir php7
cd php7
```
现在克隆php-src仓库,在终端里运行下面的命令。
```
git clone https://git.php.net/repository/php-src.git
```
工作应该会在几分钟后完成,这里是一个样例输出,你应该会在任务完成时看见。
```
[root@localhost php7]# git clone https://git.php.net/repository/php-src.git
Cloning into 'php-src'...
remote: Counting objects: 615064, done.
remote: Compressing objects: 100% (127800/127800), done.
remote: Total 615064 (delta 492063), reused 608718 (delta 485944)
Receiving objects: 100% (615064/615064), 152.32 MiB | 16.97 MiB/s, done.
Resolving deltas: 100% (492063/492063), done.
```
让我们来配置,编译PHP7,在终端运行下面的命令,开始配置工作:
```
cd php-src
./buildconf
```
下面是./buildconf命令的样例输出。
```
[root@localhost php-src]# ./buildconf
buildconf: checking installation...
buildconf: autoconf version 2.69 (ok)
rebuilding aclocal.m4
rebuilding configure
rebuilding main/php_config.h.in
```
使用下面的命令,继续配置进程:
```
./configure \
--prefix=$HOME/php7/usr \
--with-config-file-path=$HOME/php7/usr/etc \
--enable-mbstring \
--enable-zip \
--enable-bcmath \
--enable-pcntl \
--enable-ftp \
--enable-exif \
--enable-calendar \
--enable-sysvmsg \
--enable-sysvsem \
--enable-sysvshm \
--enable-wddx \
--with-curl \
--with-mcrypt \
--with-iconv \
--with-gmp \
--with-pspell \
--with-gd \
--with-jpeg-dir=/usr \
--with-png-dir=/usr \
--with-zlib-dir=/usr \
--with-xpm-dir=/usr \
--with-freetype-dir=/usr \
--with-t1lib=/usr \
--enable-gd-native-ttf \
--enable-gd-jis-conv \
--with-openssl \
--with-mysql=/usr \
--with-pdo-mysql=/usr \
--with-gettext=/usr \
--with-zlib=/usr \
--with-bz2=/usr \
--with-recode=/usr \
--with-mysqli=/usr/bin/mysql_config
```
这会花去不少的时间,当完成后你应该会看到如下面的输出:
```
creating libtool
appending configuration tag "CXX" to libtool
Generating files
configure: creating ./config.status
creating main/internal_functions.c
creating main/internal_functions_cli.c
+--------------------------------------------------------------------+
| License: |
| This software is subject to the PHP License, available in this |
| distribution in the file LICENSE. By continuing this installation |
| process, you are bound by the terms of this license agreement. |
| If you do not agree with the terms of this license, you must abort |
| the installation process at this point. |
+--------------------------------------------------------------------+
Thank you for using PHP.
config.status: creating php7.spec
config.status: creating main/build-defs.h
config.status: creating scripts/phpize
config.status: creating scripts/man1/phpize.1
config.status: creating scripts/php-config
config.status: creating scripts/man1/php-config.1
config.status: creating sapi/cli/php.1
config.status: creating sapi/cgi/php-cgi.1
config.status: creating ext/phar/phar.1
config.status: creating ext/phar/phar.phar.1
config.status: creating main/php_config.h
config.status: executing default commands
```
运行下面的命令,完成编译过程。
```
make
```
“make”命令的样例输出如下所示:
```
Generating phar.php
Generating phar.phar
PEAR package PHP_Archive not installed: generated phar will require PHP's phar extension be enabled.
clicommand.inc
directorytreeiterator.inc
directorygraphiterator.inc
pharcommand.inc
invertedregexiterator.inc
phar.inc
Build complete.
Don't forget to run 'make test'.
```
活儿干完了,该安装PHP7了,运行下面的命令安装它。
```
make install
```
成功安装的进程的样例输出应该像这样:
```
[root@localhost php-src]# make install
Installing shared extensions: /root/php7/usr/lib/php/extensions/no-debug-non-zts-20141001/
Installing PHP CLI binary: /root/php7/usr/bin/
Installing PHP CLI man page: /root/php7/usr/php/man/man1/
Installing PHP CGI binary: /root/php7/usr/bin/
Installing PHP CGI man page: /root/php7/usr/php/man/man1/
Installing build environment: /root/php7/usr/lib/php/build/
Installing header files: /root/php7/usr/include/php/
Installing helper programs: /root/php7/usr/bin/
program: phpize
program: php-config
Installing man pages: /root/php7/usr/php/man/man1/
page: phpize.1
page: php-config.1
Installing PEAR environment: /root/php7/usr/lib/php/
[PEAR] Archive_Tar - installed: 1.3.13
[PEAR] Console_Getopt - installed: 1.3.1
[PEAR] Structures_Graph- installed: 1.0.4
[PEAR] XML_Util - installed: 1.2.3
[PEAR] PEAR - installed: 1.9.5
Wrote PEAR system config file at: /root/php7/usr/etc/pear.conf
You may want to add: /root/php7/usr/lib/php to your php.ini include_path
/root/php7/php-src/build/shtool install -c ext/phar/phar.phar /root/php7/usr/bin
ln -s -f /root/php7/usr/bin/phar.phar /root/php7/usr/bin/phar
Installing PDO headers: /root/php7/usr/include/php/ext/pdo/
```
恭喜你,PHP7已经安装在你的Linux系统上了。安装完后,进入PHP7安装文件里的sapi/cli里面。
```
cd sapi/cli
```
验证一下PHP的版本。
```
[root@localhost cli]# ./php -v
PHP 7.0.0-dev (cli) (built: Mar 28 2015 00:54:11)
Copyright (c) 1997-2015 The PHP Group
Zend Engine v3.0.0-dev, Copyright (c) 1998-2015 Zend Technologies
```
### 总结
PHP 7也[添加到了remi仓库](http://blog.famillecollet.com/post/2015/03/25/PHP-7.0-as-Software-Collection),这个即将到来的版本主要关注执行效率的提升,它的新特性致力于使PHP较好满足现代编程的需求和趋势。PHP 7.0将会有许多新的特性、丢弃一些老版本的东西。在接下来的日子里,我们希望看到新特性和弃用功能的具体情况。希望你喜欢!
---
via: <http://linoxide.com/linux-how-to/install-php-7-centos-7-fedora-21/>
作者:[Aun Raza](http://linoxide.com/author/arunrz/) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/install-php-7-centos-7-fedora-21/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c5990>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,502 | 4个可以发送完整电子邮件的命令行工具 | http://linoxide.com/linux-shell-script/send-email-subject-body-attachment-linux/ | 2015-05-25T11:04:00 | [
"email",
"mailx",
"swaks",
"mutt"
] | /article-5502-1.html | 今天的文章里我们会讲到一些使用Linux命令行工具来发送带附件的电子邮件的方法。它有很多用处,比如在应用程序所在服务器上,使用电子邮件发送一个文件过来,或者你可以在脚本中使用这些命令来做一些自动化操作。在本文的例子中,我们会使用foo.tar.gz文件作为附件。
![](/data/attachment/album/201505/25/110629p173bcxip1cffcxo.png)
有不同的命令行工具可以发送邮件,这里我分享几个多数用户会使用的工具,如`mailx`、`mutt`和`swaks`。
我们即将呈现的这些工具都是非常有名的,并且存在于多数Linux发行版默认的软件仓库中,你可以使用如下命令安装:
在 **Debian / Ubuntu** 系统
```
apt-get install mutt
apt-get install swaks
apt-get install mailx
apt-get install sharutils
```
在基于Red Hat的系统,如 **CentOS** 或者 **Fedora**
```
yum install mutt
yum install swaks
yum install mailx
yum install sharutils
```
### 1) 使用 mail / mailx
`mailx`工具在多数Linux发行版中是默认的邮件程序,现在已经支持发送附件了。如果它不在你的系统中,你可以使用上边的命令安装。有一点需要注意,老版本的mailx可能不支持发送附件,运行如下命令查看是否支持。
```
$ man mail
```
第一行看起来是这样的:
```
mailx [-BDdEFintv~] [-s subject] [-a attachment ] [-c cc-addr] [-b bcc-addr] [-r from-addr] [-h hops] [-A account] [-S variable[=value]] to-addr . . .
```
如果你看到它支持`-a`的选项(-a 文件名,将文件作为附件添加到邮件)和`-s`选项(-s 主题,指定邮件的主题),那就是支持的。可以使用如下的几个例子发送邮件。
**a) 简单的邮件**
运行`mail`命令,然后`mailx`会等待你输入邮件内容。你可以按回车来换行。当输入完成后,按Ctrl + D,`mailx`会显示EOT表示结束。
然后`mailx`会自动将邮件发送给收件人。
```
$ mail user@example.com
HI,
Good Morning
How are you
EOT
```
**b) 发送有主题的邮件**
```
$ echo "Email text" | mail -s "Test Subject" user@example.com
```
`-s`的用处是指定邮件的主题。
**c) 从文件中读取邮件内容并发送**
```
$ mail -s "message send from file" user@example.com < /path/to/file
```
**d) 将从管道获取到的`echo`命令输出作为邮件内容发送**
```
$ echo "This is message body" | mail -s "This is Subject" user@example.com
```
**e) 发送带附件的邮件**
```
$ echo “Body with attachment "| mail -a foo.tar.gz -s "attached file" user@example.com
```
`-a`选项用于指定附件。
### 2) mutt
Mutt是类Unix系统上的一个文本界面邮件客户端。它有20多年的历史,在Linux历史中也是一个很重要的部分,它是最早支持进程打分和多线程处理的客户端程序之一。按照如下的例子来发送邮件。
**a) 带有主题,从文件中读取邮件的正文,并发送**
```
$ mutt -s "Testing from mutt" user@example.com < /tmp/message.txt
```
**b) 通过管道获取`echo`命令输出作为邮件内容发送**
```
$ echo "This is the body" | mutt -s "Testing mutt" user@example.com
```
**c) 发送带附件的邮件**
```
$ echo "This is the body" | mutt -s "Testing mutt" user@example.com -a /tmp/foo.tar.gz
```
**d) 发送带有多个附件的邮件**
```
$ echo "This is the body" | mutt -s "Testing" user@example.com -a foo.tar.gz –a bar.tar.gz
```
### 3) swaks
Swaks(Swiss Army Knife,瑞士军刀)是SMTP服务上的瑞士军刀,它是一个功能强大、灵活、可编程、面向事务的SMTP测试工具,由John Jetmore开发和维护。你可以使用如下语法发送带附件的邮件:
```
$ swaks -t "foo@bar.com" --header "Subject: Subject" --body "Email Text" --attach foo.tar.gz
```
关于Swaks一个重要的地方是,它会为你显示整个邮件发送过程,所以如果你想调试邮件发送过程,它是一个非常有用的工具。
它会给你提供了邮件发送过程的所有细节,包括邮件接收服务器的功能支持、两个服务器之间的每一步交互。
(LCTT 译注:原文此处少了 sharutils 的相关介绍,而多了 uuencode 的介绍。)
### 4) uuencode
邮件传输系统最初是被设计来传送7位编码(类似ASCII)的内容的。这就意味这它是用来发送文本内容,而不能发会使用8位的二进制内容(如程序文件或者图片)。`uuencode`(“UNIX to UNIX encoding”,UNIX之间使用的编码方式)程序用来解决这个限制。使用`uuencode`,发送端将二进制格式的转换成文本格式来传输,接收端再转换回去。
我们可以简单地使用`uuencode`和`mailx`或者`mutt`配合,来发送二进制内容,类似这样:
```
$ uuencode example.jpeg example.jpeg | mail user@example.com
```
### Shell脚本:解释如何发送邮件
```
#!/bin/bash
FROM=""
SUBJECT=""
ATTACHMENTS=""
TO=""
BODY=""
# 检查文件名对应的文件是否存在
function check_files()
{
output_files=""
for file in $1
do
if [ -s $file ]
then
output_files="${output_files}${file} "
fi
done
echo $output_files
}
echo "*********************"
echo "E-mail sending script."
echo "*********************"
echo
# 读取用户输入的邮件地址
while [ 1 ]
do
if [ ! $FROM ]
then
echo -n -e "Enter the e-mail address you wish to send mail from:\n[Enter] "
else
echo -n -e "The address you provided is not valid:\n[Enter] "
fi
read FROM
echo $FROM | grep -E '^.+@.+$' > /dev/null
if [ $? -eq 0 ]
then
break
fi
done
echo
# 读取用户输入的收件人地址
while [ 1 ]
do
if [ ! $TO ]
then
echo -n -e "Enter the e-mail address you wish to send mail to:\n[Enter] "
else
echo -n -e "The address you provided is not valid:\n[Enter] "
fi
read TO
echo $TO | grep -E '^.+@.+$' > /dev/null
if [ $? -eq 0 ]
then
break
fi
done
echo
# 读取用户输入的邮件主题
echo -n -e "Enter e-mail subject:\n[Enter] "
read SUBJECT
echo
if [ "$SUBJECT" == "" ]
then
echo "Proceeding without the subject..."
fi
# 读取作为附件的文件名
echo -e "Provide the list of attachments. Separate names by space.
If there are spaces in file name, quote file name with \"."
read att
echo
# 确保文件名指向真实文件
attachments=$(check_files "$att")
echo "Attachments: $attachments"
for attachment in $attachments
do
ATTACHMENTS="$ATTACHMENTS-a $attachment "
done
echo
# 读取完整的邮件正文
echo "Enter message. To mark the end of message type ;; in new line."
read line
while [ "$line" != ";;" ]
do
BODY="$BODY$line\n"
read line
done
SENDMAILCMD="mutt -e \"set from=$FROM\" -s \"$SUBJECT\" \
$ATTACHMENTS -- \"$TO\" <<< \"$BODY\""
echo $SENDMAILCMD
mutt -e "set from=$FROM" -s "$SUBJECT" $ATTACHMENTS -- $TO <<< $BODY
```
\*\* 脚本输出 \*\*
```
$ bash send_mail.sh
*********************
E-mail sending script.
*********************
Enter the e-mail address you wish to send mail from:
[Enter] test@gmail.com
Enter the e-mail address you wish to send mail to:
[Enter] test@gmail.com
Enter e-mail subject:
[Enter] Message subject
Provide the list of attachments. Separate names by space.
If there are spaces in file name, quote file name with ".
send_mail.sh
Attachments: send_mail.sh
Enter message. To mark the end of message type ;; in new line.
This is a message
text
;;
```
### 总结
有很多方法可以使用命令行/Shell脚本来发送邮件,这里我们只分享了其中4个类Unix系统可用的工具。希望你喜欢我们的文章,并且提供您的宝贵意见,让我们知道您想了解哪些新工具。
---
via: <http://linoxide.com/linux-shell-script/send-email-subject-body-attachment-linux/>
作者:[Bobbin Zachariah](http://linoxide.com/author/bobbin/) 译者:[goreliu](https://github.com/goreliu) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-shell-script/send-email-subject-body-attachment-linux/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c65f0>, 'Connection to linoxide.com timed out. (connect timeout=10)')) | null |
5,503 | Inxi:获取Linux的系统和硬件信息 | http://www.unixmen.com/inxi-find-system-hardware-information-linux/ | 2015-05-25T11:34:36 | [
"inxi"
] | https://linux.cn/article-5503-1.html | 我们已经展示了一些不同的[应用程序](/article-1947-1.html)和方法来获取Linux的系统和硬件信息。在这一系列里,我们将看到如何使用**inxi**来获取这些详情信息。在论坛技术支持中,它可以作为调试工具,迅速确定用户的系统配置和硬件信息。
![](/data/attachment/album/201505/25/113438f9lk9hf9xl32puwv.png)
**Inxi**是一个可以获取完整的系统和硬件详情信息的命令行工具,内容包括:
* 硬件
* CPU
* 磁盘驱动器
* Xorg
* 桌面环境
* 内核
* GCC版本
* 进程
* 内存占用
* 和其他有用的信息
### 安装方法
Inxi在多数现代GNU/Linux操作系统的默认软件仓库中。所以我们可以简单地运行下列命令安装。
**在基于Debian的发行版:**
```
sudo apt-get install inxi
```
**在Fedora:**
```
sudo yum install inxi
```
**在基于RHEL的发行版:**
安装EPEL软件仓库:
```
sudo yum install epel-release
```
然后使用如下命令安装inxi:
```
sudo yum install inxi
```
### 使用方法
在终端运行如下命令可以获取系统的概况信息。
```
inxi
```
**示例输出:**
```
CPU~Dual core Intel Core i3-2350M CPU (-HT-MCP-) clocked at Min:800.000Mhz Max:1200.000Mhz Kernel~3.13.0-45-generic x86_64 Up~6:41 Mem~1537.7/3861.3MB HDD~500.1GB(52.5% used) Procs~183 Client~Shell inxi~1.9.17
```
当然,我们可以获取一个特定硬件的详情信息。比如获取**声音/音频硬件详情信息**,可以运行如下命令:
```
inxi -A
```
**示例输出:**
```
Audio: Card: Intel 6 Series/C200 Series Family High Definition Audio Controller driver: snd_hda_intel
Sound: Advanced Linux Sound Architecture ver: k3.13.0-45-generic
```
很酷是吧?
同样的,你可以获取**显卡**的详情信息。
```
inxi -G
```
**示例输出:**
```
Graphics: Card: Intel 2nd Generation Core Processor Family Integrated Graphics Controller
X.Org: 1.15.1 drivers: intel (unloaded: fbdev,vesa) Resolution: 1366x768@60.0hz
GLX Renderer: Mesa DRI Intel Sandybridge Mobile GLX Version: 3.0 Mesa 10.3.0
```
硬盘信息呢?也是可以的。运行如下命令来获取完整的**硬盘**信息。
```
inxi -D
```
**示例输出:**
```
Drives: HDD Total Size: 500.1GB (52.5% used) 1: id: /dev/sda model: ST9601325BD size: 500.1GB
```
显示Bios和主板详情信息:
```
inxi -M
```
**示例输出:**
```
Machine: System: Dell (portable) product: Inspiron N5050
Mobo: Dell model: 01HXXJ version: A05 Bios: Dell version: A05 date: 08/03/2012
```
不仅是硬性详情信息,它也可以显示我们系统中的**可用软件仓库列表**。
```
inxi -r
```
**示例输出:**
```
Repos: Active apt sources in file: /etc/apt/sources.list
deb http://ubuntu.excellmedia.net/archive/ trusty main restricted
deb-src http://ubuntu.excellmedia.net/archive/ trusty main restricted
deb http://ubuntu.excellmedia.net/archive/ trusty-updates main restricted
deb-src http://ubuntu.excellmedia.net/archive/ trusty-updates main restricted
deb http://ubuntu.excellmedia.net/archive/ trusty universe
.
.
Active apt sources in file: /etc/apt/sources.list.d/intellinuxgraphics.list
deb https://download.01.org/gfx/ubuntu/14.04/main trusty main #Intel Graphics drivers
Active apt sources in file: /etc/apt/sources.list.d/linrunner-tlp-trusty.list
Active apt sources in file: /etc/apt/sources.list.d/wseverin-ppa-trusty.list
deb http://ppa.launchpad.net/wseverin/ppa/ubuntu trusty main
```
Inxi还可以显示你所在位置的天气信息。感到意外吗?是的,它可以。
```
inxi -W Erode,Tamilnadu
```
这里**Erode**是地区,**Tamilnadu**是印度的一个邦。
示例输出:
```
Weather: Conditions: 79 F (26 C) - Clear Time: February 4, 6:00 PM IST
```
### 查看完整的硬件详情信息
厌倦了逐一获取每种硬件的信息?你可以使用如下命令将所有信息一次列出:
```
inxi -F
```
**示例输出:**
```
System: Host: sk Kernel: 3.13.0-45-generic x86_64 (64 bit) Desktop: LXDE (Openbox 3.5.2) Distro: Ubuntu 14.04 trusty
Machine: System: Dell (portable) product: Inspiron N5050
Mobo: Dell model: 01HXXJ version: A05 Bios: Dell version: A05 date: 08/03/2012
CPU: Dual core Intel Core i3-2350M CPU (-HT-MCP-) cache: 3072 KB flags: (lm nx sse sse2 sse3 sse4_1 sse4_2 ssse3 vmx)
Clock Speeds: 1: 800.00 MHz 2: 1000.00 MHz 3: 800.00 MHz 4: 800.00 MHz
Graphics: Card: Intel 2nd Generation Core Processor Family Integrated Graphics Controller
X.Org: 1.15.1 drivers: intel (unloaded: fbdev,vesa) Resolution: 1366x768@60.0hz
GLX Renderer: Mesa DRI Intel Sandybridge Mobile GLX Version: 3.0 Mesa 10.3.0
Audio: Card: Intel 6 Series/C200 Series Family High Definition Audio Controller driver: snd_hda_intel
Sound: Advanced Linux Sound Architecture ver: k3.13.0-45-generic
Network: Card-1: Qualcomm Atheros AR9285 Wireless Network Adapter (PCI-Express) driver: ath9k
IF: wlan0 state: up mac:
Card-2: Realtek RTL8101E/RTL8102E PCI Express Fast Ethernet controller driver: r8169
IF: eth0 state: down mac:
Drives: HDD Total Size: 500.1GB (52.5% used) 1: id: /dev/sda model: ST9500325AS size: 500.1GB
Partition: ID: / size: 455G used: 245G (57%) fs: ext4 ID: /boot size: 236M used: 159M (72%) fs: ext2
ID: swap-1 size: 4.19GB used: 0.00GB (0%) fs: swap
RAID: No RAID devices detected - /proc/mdstat and md_mod kernel raid module present
Sensors: System Temperatures: cpu: 64.5C mobo: N/A
Fan Speeds (in rpm): cpu: N/A
Info: Processes: 186 Uptime: 6:52 Memory: 1547.2/3861.3MB Client: Shell (bash) inxi: 1.9.17
```
就像上面你看到的那样,inxi显示出了完整的硬件详情信息。
更多的细节可以参考man手册。
```
man inxi
```
### 结论
你在寻找一个可以显示完整的系统和硬件详情信息的简单工具吗?那么不用再找了,inxi会提供你所需要的。并且,它还是在你系统默认的软件仓库中的轻量级工具。你还想要更多东西吗?试一试它,你不会失望。
欢呼吧!
---
via: <http://www.unixmen.com/inxi-find-system-hardware-information-linux/>
作者:[SK](http://www.unixmen.com/author/sk/) 译者:[goreliu](https://github.com/goreliu) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,504 | 五款 Linux 文本编辑器测评 | http://www.linuxvoice.com/text-editors/ | 2015-05-25T14:34:00 | [
"Gedit",
"Kate",
"Sublime",
"UltraEdit",
"jEdit"
] | https://linux.cn/article-5504-1.html |
>
> Mayank Sharma 测试了5款不仅仅是能处理文字的超强文本编辑器。
>
>
>
如果你使用Linux已经有很长一段时间,你知道,不管是编辑一款app的配置文件,还是修改shell脚本,或者编写/查看代码,类似LibreOffice的工具并不适合。尽管字面上看起来都是一样,但是你并不需要一个文字处理器来完成这些任务;你需要的是一个文本编辑器。
在这个测评中,我们将着眼于5款更能胜任繁重文本工作的轻量级的文本编辑器。他们支持语法高亮,像拼写检查一样轻松处理代码缩进。你可以像你复制/粘贴文本那样容易地使用它们记录宏以及管理代码片段。
得益于它们的插件,使得它们足以抗衡其它的以文本为中心的应用程序,一些简单的文本编辑器甚至超出了它们的设计目标。它们能胜任一个源代码编辑器的任务,甚至就是一个集成开发环境。
Emacs和Vim是两款最流行和强大的纯文本编辑器。但是,由于一些原因,我们在这个测评中并没有包括它们。首先,如果你使用它们中的任何一个,那么恭喜你:你不需要更换了。其次,它们都有陡峭的学习曲线,尤其是那些熟悉了桌面环境的用户:他们很更愿意投入其他有图形界面的文本编辑器。
![](/data/attachment/album/201505/25/143409lz1j1kyg1gfjqr4z.jpg)
### 目录:
#### Gedit
* URL:<http://projects.gnome.org/gedit/>
* 版本: 3.10
* 许可证: GPL
* Gnome的默认文本编辑器准备好挑战了吗?
#### Kate
* URL: [www.kate-editor.org](http://www.kate-editor.org)
* 版本: 3.11
* 许可证: LGPL/GPL
* Kate会挑战命运吗?
#### Sublime Text
* URL: [www.sublimetext.com](http://www.sublimetext.com)
* 版本: 2.0.2
* 许可证: Proprietary
* 在自由的土地上的带有黄金般的心脏的专利软件。
#### UltraEdit
* URL: [www.ultraedit.com](http://www.ultraedit.com)
* 版本: 4.1.0.4
* 许可证: Proprietary
* 足够证明它的价值了吗?
#### jEdit
* URL: [www.jedit.org](http://www.jedit.org)
* 版本: 5.1.0
* 许可证: GPL
* 基于Java的编辑器是否会毁掉其他编辑器的世界?
### 关键标准
除了Gedit和jEdit以外的所有工具,都是通过其推荐的安装方法安装在Fedora和Ubuntu上。前者已经兼容默认的Gnome桌面,后者仍然固执地反对安装在Fedora上。由于这些是相对简单的应用程序,他们没有复杂的依赖,唯一例外的是jEdit,它要求要有Oracle Java。
得益于Gnome和KDE持续的努力,所有编辑器无论在哪个桌面上的外观看起来很好,功能也很正常。这不仅是作为评价的标准,也意味着你不再受制于你的桌面环境兼容的工具。
除了它们独特的功能,我们也对所有候选者测试了常规的文本编辑功能。然而,它们并没有被设计为模仿现代字处理器的所有功能,我们也不以此评判。
### 编程语言支持
UltraEdit 能进行语法高亮、代码折叠以及拥有项目管理的能力。也有一个罗列源文件中所有函数的功能列表,但并不适用于我们测试的任何代码文件。UltraEdit也支持HTML5,有一个能添加常用HTML标记的HTML工具栏。
即使Gnome的默认文本编辑器Gedit,也有几个面向编码的功能特性,例如括号匹配、自动缩进以及为包括C, C++, Java, HTML, XML, Python, Perl, 以及许多其它编程语言进行语法高亮。
如果你需要更多的编程辅助功能,看一下Sublime和Kate。
Sublime支持多种编程语言并且能为(那些流行的)C#, D, Dylan, Erlang, Groovy, Haskell, Lisp, Lua, MATLAB, OCaml, R, 甚至 SQL 进行语法高亮。如果这还不够,你可以下载插件以支持更多的语言。另外,它的语法高亮功能提供了多个可定制选项。这个应用程序也会进行括号匹配,确保代码段都正确,Sublime的自动补全功能也支持用户创建的变量。就像Komodo IDE,Sublime也可以显示一个全部源代码的滚动预览图,这对于长代码文件导航和在文件中的不同部分跳转很方便。Sublime最好的功能之一就是能在编辑器内部运行特定语言,例如C++, Python, Ruby等的代码,当然假设在你的电脑上安装有编译器以及其它系统工具。省时间而且不用再开终端.
你也可以用插件在Kate中开启构建系统功能。另外,你可以为GDB调试器添加一个简单的前端。Kate能和Git,Subversion以及Mercurial版本控制系统一起工作,也提供了一些项目管理的功能。除了能为超过180种语言进行语法高亮,它支持所有的这些辅助功能,例如括号匹配,自动补全和自动缩进。它也支持代码折叠,甚至在一个程序中折叠函数。
唯一的遗憾的是jEdit,它声称自己是一个程序员的文本编辑器,但它缺少其他的基本功能,例如代码折叠,它甚至不能提示或者补全函数.
**评分:**
* Gedit:3/5
* Kate:5/5
* Sublime:5/5
* UltraEdit:3/5
* jEdit:1/5
### 键盘控制
高级文本编辑器的用户希望能完全通过键盘控制和操作,一些应用程序甚至支持用户自定义快捷方式的键盘绑定。
你可以轻松的使用Gedit的扩展键盘快捷键。可以在编辑文件时通过工具的快捷键调用工具,例如对一个文档进行拼写检查。你可以看到应用程序内部的一系列默认快捷键,但并没有图形化的方式去自定义它们。相似的,在Sublime中自定义键盘绑定,你需要修改它的XML的键盘映射文件。Sublime由于缺少定义键盘快捷键的图形化界面而饱受批评,但长期使用的用户支持当前的基于文件的机制:这给了他们更多的控制能力。
UltraEdit为它"一切都可自定义"的座右铭感到自豪,这也包括键盘快捷键。你可以自定义菜单导航的热键,以及定义你自己的访问大量功能的组合键映射。
除了完全可自定义的键盘快捷键以外,jEdit也有为Emacs预定义的键映射。Kate在这方面尤其令人映像深刻。它有简单可访问的自定义键绑定窗口。你可以更改默认的键,或者定义替代的键。另外,Kate也有一个能使用户使用Vi键操作Kate的Vi模式。
**评分:**
* Gedit:2/5
* Kate:5/5
* Sublime:3/5
* UltraEdit:4/5
* jEdit:5/5
### 片段和宏
宏通过自动化重复的步骤帮助你降低花费在编辑和组织数据上的时间,而代码片段通过创建可重用的源代码块为程序员扩展类似的功能。这两者都能节省你的时间。
标准的Gedit安装没有这两种功能中的任何一种,但是你可以通过独立的插件启用这些功能。片段插件随Gedit一起发布,但在Gedit内启用宏插件,则需要你手动下载和安装(被称为gedit-macropy,托管在GitHub上)。
Kate也同样通过插件的形式启用片段功能。一旦加入,插件也增加了PHP,Bash和Java的片段库。你可以在侧边栏中显示片段列表以便于访问。可以通过右击片段或者快捷键组合方式编辑它的内容。然而,令人惊讶的是,它不支持宏-尽管用户从2002年就不断要求!
jEdit也有一个启用片段的插件。它还可以从用户行为中记录宏或者你也可以用BeanShell 脚本语言(BeanShell支持像Perl和JavaScript那样将脚本对象封装为简单的方法)中写宏。jEdit也有一个可以从jEdit的网站中下载多种宏的插件。
Sublime有创建片段和宏的内建功能,也有为大多数编程语言经常使用的函数多种片段。
在UltraEdit中片段被称为智能模板,就像Sublime中一样,你可以根据正在编辑的源代码文件类型插入片段。要完成宏记录功能,UltraEdit还有集成了一个基于JavaScript的脚本语言引擎来完成自动任务。你也可以从该编辑器的网站中下载用户提交的宏和脚本。
**评分:**
* Gedit:3/5
* Kate:1/5
* Sublime:5/5
* UltraEdit:5/5
* jEdit:5/5
### 易用性
不像那些简陋的文本编辑器,这些文本编辑器在这方面可以适应从文档写作者到程序员的各种用户的需要。与精简应用程序相反,他们的开发者在寻找添加更多功能的途径。
尽管第一眼看上去这次测评中的大部分应用有一个很相似的布局,经过仔细的检查,你会发现一些可用性的差异。我们通过用户界面的合理使用来介绍它们的功能和特性,而不是铺天盖地地告诉读者。
#### Gedit: 4/5
Gedit的外观很普通,它有一个带有很少的菜单和按钮的简单界面。这是一把双刃剑,因为有些用户可能不会发现它真正的潜能。
Gedit可以在选项卡中打开多个文件,这些选项卡可以重排和在多个 Gedit窗口之间移动。用户可以选择通过插件来启用侧边栏来浏览文件或者在底部面板显示工具输出内容。这个应用程序会检测到被其它应用程序更改的文件并可以重新加载该文件。
为了适配Gnome,在应用程序的最新版本中做了大量的 UI 修改。然而修改还还不稳定,尽管包括了所有的功能,但是菜单交互的一些插件还需要升级。
![在展示一个有功能的应用程序和将它们所有的东西曝光给用户之间有一个很好的平衡。Geddit隐藏了它的大部分功能。](/data/attachment/album/201505/25/143412zrs7xfqt1atzfsss.png)
*在功能与界面之间取得了良好的平衡,Gedit将其大部分功能隐藏在背后。*
#### Kate: 5/5
尽管用户界面的主要部分和Gedit相似,Kate可以在两边显示选项卡并且它的菜单更加丰富。该应用程序平易近人,吸引用户来挖掘它的其它功能。
Kate可以在KDE的KIO支持的所有协议上透明地打开和保存文件,包括通过HTTP, FTP, SSH, SMB 和 WebDAV。你可以用这个应用同时处理多个文件。但不同于大部分应用程序传统的水平选项卡选择栏,Kate在屏幕的两个方向都有选项卡。左侧的侧边栏显示打开的文件列表。需要同时查看一个文件不同部分的程序员也会感激它可以水平或者竖直分隔界面的能力。
![Kate能搭建为功能丰富的集成开发环境](/data/attachment/album/201505/25/143413f6yv23lvla5yy0vv.png)
*Kate能搭建为功能丰富的集成开发环境。*
#### Sublime: 5/5
Sublime支持你在不同方式同时查看多达四个文件。当你在集中精力编程时,它也有一个只显示文件和菜单的全屏无扰模式。
这个编辑器还在右边有个缩略地图,这在长文件中导航非常有用。应用程序为多种编程语言提供多种常用函数的片段,这使得它对于开发者非常有用。另一个精巧的功能是,无论你使用都是文本文档或者代码,都可以任意选择和替换。
![如果你不喜欢Sublime的Charcoal外观,你可以选择它包含的其它22种主题。](/data/attachment/album/201505/25/143414d84hp95t9okbb58t.png)
*如果你不喜欢Sublime的Charcoal外观,你可以选择它包含的其它22种主题。*
#### UltraEdit: 3/5
UltraEdit在界面的顶部和底部加载了多种工具栏。加上切换文档的选项卡、两边的面板,以及分隔区域,使得只剩下一点空间给编辑窗口。
使用HTML的网络开发者有很多唾手可得的帮助。你可以通过FTP和SFTP访问远程文件。高级功能,例如记录一个宏以及比较文件,也简单易用。
使用应用程序的偏好设置窗口,你可以调整应用程序的多个方面,包括颜色主题和类似语法高亮的其它功能。
![UltraEdit的用户界面是高度可配置的 — 你可以像改变其它许多方面那样简单的自定义工具栏和菜单的布局。](/data/attachment/album/201505/25/143415jjw9fzoc1w8dxdc5.png)
*UltraEdit的用户界面是高度可配置的 — 你可以像改变其它许多方面那样简单的自定义工具栏和菜单的布局。*
#### jEdit: 3/5
在可用性方面,首先一个不好就是jEdit不能在基于RPM的发行版上安装。导航编辑器需要一些时间来适应,因为它的菜单和其它流行的应用程序顺序不同,而且有些普通桌面用户不熟悉的名字。但是,该应用程序有详细的内部帮助,这有利于缓解学习曲线。
jEdit会高亮你所在的当前行,并使你能以多种查看方式分隔窗口。你可以简单地从应用程序中安装和管理插件,除了使用完整的宏,jEdit也支持你快速记录一个临时的宏。
![由于它的Java基础,jEdit在任何桌面环境中都不能给人宾至如归的感觉](/data/attachment/album/201505/25/143415j9933279fr93l32r.png)
*由于它的Java基础,jEdit在任何桌面环境中都不能给人宾至如归的感觉*
### 可用性和支持
在Gedit和Kate之间有很多相似性。两个应用程序都得益于他们各自的父项目,Gnome和KDE,捆绑在各种主流的发行版中。另外两个项目都是跨平台的,有Windows和Mac OS X版本以及原生的Linux版本。
Gedit托管在Gnome的网站上,并有一个简单的用户指南、关于多种插件的信息,以及包括邮件列表和IRC通道在内的常用联系方式。你也可以在其它基于Gnome的发行版,例如Ubuntu中找到使用信息。相似地,Kate得益于KDE的资源,并包括详细的用户信息以及邮件列表和IRC通道。你也可以从应用程序中获取相应的离线用户指南。
除了Linux,UltraEdit在Windows和Mac OS X中也可用,虽然在应用程序中并没有包括,但在启动时也有详细的用户指南。为了辅助用户的使用,UltraEdit保存了一个常见问题的数据库,一系列关于多种特定功能的详细介绍,用户还可以在论坛版块彼此帮助。另外,付费用户也可以通过邮件从开发者中获取支持。
Sublime支持一样多的平台,但是你需要单独为每种平台购买许可证。开发者通过博客让用户了解正在进行的开发,并积极参加它的论坛。这个项目支持设施的亮点是提供免费的详细教程和视频课程。Sublime非常漂亮。
由于jEdit是用java编写的,所以它在多种平台中都可用。在它的网站上你可以找到一个详细的用户指南以及一些插件帮助文档的链接。然而,这里没有能使用户和其他用户或者开发者交流的途径。
**评分:**
* Gedit:4/5
* Kate:4/5
* Sublime:5/5
* UltraEdit:3/5
* jEdit:2/5
### 附加组件和插件
不同的用户有不同的需求,一个简单的轻量级应用程序只能做到这么多。这就是为什么需要插件的原因。应用程序依赖于这些小部件来扩展它们的功能集并让更多的用户使用。
UltraEdit是一个例外。它没有第三方插件,但开发者将例如HtmlTidy这样的第三方工具集成到了UltraEdit。
Gedit附带了好多已安装的插件,你可以下载更多的更多gedit插件包。基于和Gedit版本的兼容性,项目网站也有到多个第三方插件的链接。
三个对程序员非常有用的插件是:Code Comment、在底部面板增加一个终端的Terminal Plugin以及Session Saver。当你用多个文件开发项目的时候Session Saver相当有用。你可以在选项卡中打开文件,保存会话,你可以用一键恢复,就可以按照你保存时的选项卡顺序打开所有的文件。
类似的,你可以通过用内部的插件管理器增加插件来扩展Kate。除了令人映像深刻的项目插件,一些开发者使用的插件包括嵌入式终端,它能编译和调试代码,以及对数据库执行SQL查询。
Sublime的插件是用Python写的,文本编辑器包括了一个类似于apt-get,能使用户查找,安装,升级和移除插件包的名为Package Control的工具。通过插件,你可以在Sublime中使用Git版本控制,以及美化JavaScript代码的JSLint工具。Sublime Linter能指出你代码中的错误,是编码人员必备的插件。
jEdit拥有最令人印象深刻的插件设施。该应用有超过200个插件,可以在它们自己的专用网站中浏览。网站通过不同的类型列出了插件,例如文件管理,版本控制,文本等。你可以在每个类型下找到很多的插件。
一些最好的插件是Android插件,它们提供了和Android项目协同工作的工具;你可以使用TomcatSwitch插件创建和控制外部Jakarta Tomcat服务器进程;以及类似于Vi功能的Vimulator插件。你可以通过使用jEdit的插件管理器安装这些插件。
**评分:**
* Gedit:3/5
* Kate:4/5
* Sublime:4/5
* UltraEdit:1/5
* jEdit:5/5
### 纯文本编辑
尽管它们强大的额外功能甚至可能会取代几种完全成熟的应用程序,有时候可能只需要使用这些庞大的文本编辑器读、写或者编辑简单的纯文本。虽然你可以使用它们中的任何一个输入文本,我们通过普通文本编辑的方便性评价它们。
Gnome的默认文本编辑器Gedit,支持取消和重做机制以及搜索和替换。它可以对多种语言进行拼写检查,并能通过使用Gnome GVFS库访问和编辑远程文件。
你也可以使用Kate进行拼写检查,它也可以让你对任何高亮文本进行Google搜索。它还有一个能可视化告知用户文件中更改过但没有保存的行的行修改系统。另外,它通过允许用户在文件中使用书签简化长文档的导航。
Sublime有很多可选择的编辑命令,例如缩进文本和格式化段落。它的自动保存功能帮助防止用户丢失他们的更改。高级用户还会喜欢基于正则表达式的递归查找和替换功能,以及选择多个不连续的文本块并执行统一操作。
UltraEdit也允许用户在查找和替换功能中使用正则表达式,并能通过FTP编辑远程文件。
JEdit一个独特的功能是它支持被称为寄存器的不限数目的剪切板。你可以复制文本片段到这些寄存器中,在编辑会话过程中都可用。
**评分:**
* Gedit:4/5
* Kate:5/5
* Sublime:5/5
* UltraEdit:4/5
* jEdit:4/5
### 我们的评比
在这里的所有编辑器都足以替换你已有的文本编辑器,来编辑文本和调整配置文件。事实上,没准它们会组合起来作为你的集成开发环境。这些应用程序都有各种各样功能,它们的开发者不会考虑剥离功能,而是增加越来越多的功能。
jEdit排在这次测试的最后面。因为它不仅坚持使用专有的Oracle Java运行时环境,不能在你的Fedora机器上安装,而且开发者并不积极和用户交互。
UltraEdit做的稍微好一点。这个商业专用工具专注于网络开发者,不为非开发者的高级用户提供任何功能,使得它不值得推荐为免费软件的替代品。
排在第三的是Gedit。作为Gnome的默认编辑器,它没有任何内在的问题,但尽管有很多积极的方面,它还是略微被Sublime和Kate超越。开诚布公地说,Kate是比Gedit更通用的编辑器,甚至考虑到他们的插件系统,评分也优于Gnome的默认编辑器。
Sublime和Kate都相当好。他们在我们的大多数测试中表现同样出色。Kate由于不支持宏而落后于Sublime,但键盘友好和能简单定义自定义键绑定又使Kate找回优势。
Kate成功的原因可以归结为它通过最小化学习曲线提供了最大化的功能。尽管使用它吧,不仅作为简单文本编辑器使用,或者容易使用语法高亮编辑配置文件,甚至得益于其项目管理能力能使用它协作一个复杂的编程项目。
我们不是选择Kate去替换一个类似“[XX,在这里插入你最喜欢的专业工具]”的全面的集成开发环境。但是它是一个专业工具理想的、全面的、以及完美的垫脚石。
Kate为能快速响应你的需要而设计,它的界面并不会使你茫然,并且和那些过于复杂的应用一样的有用。
### 1st Kate
* Licence LGPL/GPL Version 3.11
* [www.kate-editor.org](http://www.kate-editor.org)
* 拥有超能力,态度温和的文本编辑器。
* Kate是KDE项目中最有用的应用程序之一。
### 2nd Sublime Text
* Licence 专利 Version 2.0.2
* [www.sublimetext.com](http://www.sublimetext.com)
* 值得你每分钱的专业文本编辑器 - 简单易用,功能全面而且看起来很棒。
### 3rd Gedit
* Licence GPL Version 3.10
* <http://projects.gnome.org/gedit>
* 在Gnome中就用它吧。这是一个奇妙的文本编辑器,确实令人钦佩的工作,但这里的竞争实在太大了。
### 4th UltraEdit
* Licence Proprietary Version 4.1.0.4
* [www.ultraedit.com](http://www.ultraedit.com)
* 关注于为网络开发者提供各种便利,而不为普通用户提供任何特殊功能。
### 5th jEdit
* Licence GPL Version 5.1.0
* [www.jedit.org](http://www.jedit.org)
* 缺乏支持,不支持Fedora,缺乏好看的界面,jEdit被贬低到最后。
### 你也许希望尝试…
随你发行版发布的默认文本编辑器也能帮助你一些高级任务。例如KDE的KWrite和Raspbian的Nano。得益于KDE的katepart组件,KWrite继承了一些Kate的功能,得益于在树莓派上的可用性,Nano也开始重现风头。
如果你希望跟随Linux大师的脚步,你总是可以尝试高大上的文本编辑器Emacs和Vim。想尝试Vim强大的用户首先可以考虑gVim,它通过图形界面展现了Vim的强大。
除了jEdit和Kate,这里还有其他模仿Emacs和Vim之类的旧式高级编辑器的编辑器,比如JED 编辑器和Joe's Own Editor,这两者都有Emacs的模拟模式。另一方面,如果你在寻找轻量级的代码编辑器,可以看看Bluefish和Geany。他们的存在是为了填补文本编辑器和全面集成的开发平台之间的空隙。
---
via: <http://www.linuxvoice.com/text-editors/>
作者:[Ben Everard](http://www.linuxvoice.com/author/ben_everard/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[royaso](https://github.com/royaso),[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 500 | Internal Server Error | null |
5,507 | 一个用于Gnome桌面的下拉式终端: Guake 0.7.0 发布 | http://www.tecmint.com/install-guake-terminal-ubuntu-mint-fedora/ | 2015-05-26T08:18:00 | [
"终端",
"Guake"
] | https://linux.cn/article-5507-1.html | Linux的命令行是最好、最强大的东西,它使新手着迷,并为老手和极客的提供极其强大的功能。那些在服务器和生产环境下工作的人早已认识到了这个事实。有趣的是,Linux终端是Linus Torvald在1991年写内核时实现的第一批功能之一。
终端是个强大的工具,由于它没有什么可调整的部分,所以十分可靠。终端介于控制台环境和GUI环境之间。终端自身作为一个GUI程序,运行在桌面环境下。有许多终端是适用于特定的桌面环境的,其它的则是通用的。Terminator, Konsole, Gnome-Terminal, Terminology, XFCE terminal, xterm都是些常用的终端模拟器。
您可以从下面的链接中获得一份使用最广泛的终端模拟器的列表。
* [20 Useful Terminals for Linux](http://www.tecmint.com/linux-terminal-emulators/)
前几日上网时,我偶遇了名为‘Guake’的终端程序,它是用于gnome的终端模拟器。尽管这并不是我第一次听到Guake。实际上,我在大约一年前便知道了这个应用程序,但不知怎么搞的,我那时没有写写Guake,再后来我便渐渐忘掉了Guake,直到我再一次听到Guake。所以,最终,这篇文章诞生了。我将给你讲讲Guake的功能,在Debian、Ubuntu、Fedora上的安装过程以及一些测试。
#### 什么是Guake?
Guake是应用于Gnome环境的下拉式终端。主要由Python编写,使用了一些C,它以GPL2+许可证发布,适用于Linux以及类似的系统。Guake的灵感来源于电脑游戏Quake(雷神之锤)中的终端,Quake的终端能通过按下特定按键(默认为F12)从屏幕上滑下来,并在按下同样的键后滑上去。
值得注意的是,Guake并不是第一个这样的应用。Yakuake(Yet Another Kuake)是一个运行于KDE的终端模拟器,Tilda是一个用GTK+写成的终端模拟器。它们的灵感都来自于雷神之锤那上下滑动的终端。
#### Guake的功能
* 轻量级
* 简单而优雅
* 功能众多
* 强大
* 美观
* 将终端平滑地集成于GUI中
* 在按下预定义的键后出现/消失
* 支持热键、标签、透明化背景,这使得它适合所有Gnome用户
* 可配置各种方面
* 包括许多颜色的调色板
* 设定透明度的快捷方式
* 通过Guake配置,可在启动时运行一个脚本
* 可以在多个显示器上运行
Guake 0.7.0最近发布,它带来了一些修正以及上面提到的一些功能。完整的版本历史和源代码包可以在[这里](https://github.com/Guake/guake/releases/tag/0.7.0)找到。
### 在Linux中安装Guake终端
如果您对从源码编译Guake感兴趣,您可以从上面的链接处下载Guake,并在安装前进行编译。
然而Guake可以在许多的发行版中通过添加额外的仓库来安装。这里,我们将在Debian、Ubuntu、Linux Mint和Fedora下安装Guake。
首先从仓库获取最新的软件包列表,并从默认的仓库安装Guake,如下所示:
```
---------------- 在 Debian, Ubuntu 和 Linux Mint 上 ----------------
$ sudo apt-get update
$ apt-get install guake
```
---
```
---------------- 在 Fedora 19 及其以后版本 ----------------
# yum update
# yum install guake
```
安装后,可以从另一个终端中启动Guake:
```
$ guake
```
在启动它后,便可以在Gnome桌面中使用F12(默认配置)来拉下、收回终端。
看起来非常漂亮,尤其是透明背景。滑下来...滑上去...滑下来...滑上去...执行命令,打开另一个标签,执行命令,滑上去...滑下来...(作者已沉迷其中)
![Guake Terminal in Action](/data/attachment/album/201505/25/222042zdbirbcf2zr1td2z.png)
*Guake实战*
如果您的壁纸或活动窗口的颜色和Guake的颜色有些不搭。您可以改变您的壁纸,减少透明度或者改变Guake的颜色。
下一步便是进入Guake的配置,根据每个人的需求修改设置。可以通过应用菜单或者下面的命令来运行Guake的配置。
```
$ guake --preferences
```
![Guake Terminal Properties](/data/attachment/album/201505/25/222043f5pejpa95xhj8x85.png)
*Guake终端配置*
设置滚动
![Guake Scrolling Settings](/data/attachment/album/201505/25/222045l464iirh111er1i3.png)
*Guake滚动配置*
外观设置 - 在这里您可以修改文字颜色和背景色以及透明度。
![Appearance Properties](/data/attachment/album/201505/25/222048ma3exiar5srnsxe7.png)
*外观设置*
键盘快捷键 - 在这里您可以修改Guake显示的开关快捷键。
![Keyboard Shortcuts](/data/attachment/album/201505/25/222050mizmpvjjhm4mhvz4.png)
*键盘快捷键*
兼容性设置 - 基本上不必设置它。
![Compatibility Setting](/data/attachment/album/201505/25/222051psa8pz347n4zj6pp.png)
*兼容性设置*
### 结论
这个项目即不是太年轻也不是太古老,因此它已经达到了一定的成熟度,足够可靠,可以开箱即用。像我这样需要在GUI和终端间频繁切换的人来说,Guake是一个福利。我不需要管理一个多余的窗口,频繁的打开和关闭,使用tab在大量打开的应用程序中寻找终端或切换到不同的工作区来管理终端,现在我需要的只有F12。
我认为对任何同时使用GUI和终端的Linux用户来说,Guake都是必须的工具。同样的,我会向任何想要在系统中结合使用GUI和终端的人推荐它,因为它既平滑又没有任何障碍。
上面就是我要说的全部了。如果在安装和使用时有任何问题,请告诉我,我们会帮助您。也请您告诉我您使用Guake的经验。在下面的评论区反馈您宝贵的经验。点赞和分享以帮助我们宣传。
---
via: <http://www.tecmint.com/install-guake-terminal-ubuntu-mint-fedora/>
作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[wwy-hust](https://github.com/wwy-hust) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,508 | 如何修复 “fatal error: security/pam_modules.h: No such file or directory” | http://ask.xmodulo.com/fatal-error-security-pam-modules.html | 2015-05-26T08:23:00 | [] | /article-5508-1.html |
>
> **问题**: 我尝试在 [某某 Linux 发行版] 上编译程序,但是出现下面的编译错误:
>
>
>
> ```
> "pam_otpw.c:27:34: fatal error: security/pam_modules.h: No such file or directory"
>
> ```
>
> 我怎样才能修复这个错误?
>
>
>
缺失的头文件 'security/pam\_modules.h' 是 libpam 开发版的一部分,一个 PAM(Pluggable Authentication Modules:插入式验证模块)库。因此要修复这个错误,你需要安装 libpam 开发包,如下所示。
对于 Debian、 Ubuntu 或者 Linux Mint:
```
$ sudo apt-get install libpam0g-dev
```
对与 CentOS、 Fedora 或者 RHEL:
```
$ sudo yum install gcc pam-devel
```
现在验证缺失的头文件是否安装到了 /usr/include/security。
![](/data/attachment/album/201505/25/222442wr6oy6y68ymazton.jpg)
---
via: <http://ask.xmodulo.com/fatal-error-security-pam-modules.html>
作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
| null | HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /fatal-error-security-pam-modules.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c4730>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)")) | null |
5,509 | 如何在CentOS上面安装“CentOS网页面板” | http://www.unixmen.com/how-to-install-centos-web-panel-in-centos/ | 2015-05-26T09:35:00 | [
"CentOS",
"CentOS网页面板",
"CWP"
] | https://linux.cn/article-5509-1.html | ![](/data/attachment/album/201505/25/233747l8yy9osbb9qsrjsy.jpg)
### 关于CentOS网页面板
目前有很多免费的或者付费的控制面板。今天,我们来讨论[CentOS网页面板(CWP)](http://centos-webpanel.com/),这是特别为基于RPM 的发行版,如CentOS,RHEL,Scientific Linux等设计的。**CWP** 是免费且开源的控制面板,可以被广泛用于简单地配置一个网页托管环境。不同于其他的控制面板,CWP能自动部署LAMP的软件栈及Varnish 缓存服务器。
### 特性
CWP有很多的特性和免费的服务。如我前面提到的一样,CWP会在你的服务器上自动安装全套的LAMP服务(apache,php,phpmyadmin,webmail,mailserver等等)。
### CWP安装过程中会安装和配置的软件列表
* Apache 网页服务器
* PHP 5.4
* MySQL + phpMyAdmin
* Postfix + Dovecot + roundcube webmail
* CSF 防火墙
* File System Lock (不需要修改网站,你的所有文件都会被锁定修改)
* Backups; AutoFixer ,用于服务器配置
### 第三方应用:
* CloudLinux + CageFS + PHP Selector
* Softaculous – 脚本安装器 (免费版和白金版)
#### 网页服务器:
* Varnish 缓存服务器
* 从代码编译 Apache
* Apache 重新编译+附加模块
* Apache 服务器状态,配置
* 编辑 Apache 虚拟主机、虚拟主机模版,包括配置
* 重建所有 Apache 虚拟主机
* suPHP & suExec
* Mod Security + OWASP 规则
* Tomcat 8 服务器管理
* DoS 防护
* Perl cgi 脚本支持
#### PHP:
* PHP 切换器 (在PHP版本如: 5.2、 5.3、 5.4、 5.5之间切换)
* PHP选择器,选择每个用户或者每个文件的PHP版本(PHP 4.4、 5.2、 5.3、 5.4、5.5、 5.6)
* 简单的php编辑器
* 在用户面板下简单的php.ini生成器
* PHP 插件
* PHP.ini 编辑器 & PHP 信息 和列出模块
* 每个帐号一个php.ini
* FFMPEG,用于视频流网站
* CloudLinux + PHP 选择器
#### 用户管理
* 添加、列出、编辑和移除用户
* 用户监管
* Shell访问管理
* 用户限制管理
* 限制进程
* 限制访问文件
* 用户 FTP & File 管理器
* CloudLinux + CageFS
* 每个帐号专有IP
#### DNS:
* FreeDNS
* 添加、编辑、列出和移除DNS区块
* 编辑域名服务的IP
* DNS区块模板编辑器
* 新的易用DNS区块管理器 (用ajax)
* 新的DNS区块列表,带有额外的google解析信息 (同时检测 rDNS, 域名服务…)
#### Email:
* Postfix & dovecot
* 邮箱、别名
* Roundcube webmail
* Postfix 邮件队列
* rDNS 检查器模块
* 垃圾邮件拦截
* SPF & DKIM集成
* 重构带有反病毒、反垃圾邮件防护的 Postfix/Dovecot 的邮件服务器
* Email 自动应答器
#### 系统:
* CPU核心和时钟信息
* 内存使用信息
* 详细的磁盘状态
* 软件信息如内核版本、正常运行时间等等.
* 服务器状态
* ChkConfig管理
* 网络端口使用
* 网络配置
* sshd 配置
* 自动修复(检查重要的配置并尝试自动修复问题)
#### 监控:
* 监控服务,例如 top、 apache 状态、 mysql 等
* 在面板内使用Java SSH 终端/控制台
* 服务器配置 (例如 Apache、 PHP、 MySQL 等)
* 在屏幕/后台运行命令行
#### 安全:
* CSF防火墙
* SSL生成器
* SSL证书管理
* CloudLinux + CageFS
#### SQL:
* MySQL 数据库管理
* 添加本地或者远程访问的用户
* 实时监控MySQL进程列表
* 创建,移除数据库
* 为每个数据库添加额外的用户
* MySQL服务器配置
* PhpMyAdmin
* PostgreSQL, phpPgAdmin支持
#### 额外功能:
* TeamSpeak 3 管理器
* Shoutcast 管理器
* 自动更新
* 备份管理器
* 文件管理器
* 每个域名的虚拟FTP用户
* cPanel帐号迁移 (恢复文件,数据库和数据库用户)
* 还有更多
### 在CentOS 6上安装CentOS网页面板
写这篇教程的时候,CWP仅仅支持最高CentOS 6.x版本。在CentOS 7和更高的版本中是不支持的。
#### 前期准备:
**安装CWP之前,你必须知道以下的信息:**
* CWP 仅支持静态IP地址。它并不支持动态的,或者内部的IP地址。
* CWP 并没有卸载程序。当你安装CWP后,你必须重新安装服务器来移除它。
* 只能在一个新装的还没做任何配置改变的操作系统上安装CWP。
* 对于32位操作系统至少需要512MB RAM。
* 64位系统需要1024MB RAM。
* 要求至少20GB的硬盘空间。
如果是在VirtualBox上面测试,640MB RAM和10GB磁盘空间就足够了。
#### 更新服务器:
首先安装wget包,这是下载CWP需要的。
```
yum install wget -y
```
使用命令更新你的服务器:
```
yum update -y
```
重启一次,激活更新。
#### 安装CWP:
进入**/usr/local/src/**目录:
```
cd /usr/local/src
```
使用命令下载最新的CWP版本:
```
wget http://centos-webpanel.com/cwp-latest
```
如果上面的URL出现错误,用下面的链接代替。
```
wget http://dl1.centos-webpanel.com/files/cwp-latest
```
然后,用命令开始安装CWP:
```
sh cwp-latest
```
**样例输出:**
![](/data/attachment/album/201505/25/233752rzfllaeiqjjw1qll.png)
![](/data/attachment/album/201505/25/233802okho2i7l74dql20o.png)
安装过程会持续到30分钟或者更多,取决于你的网速。
最后,你会看到如下安装完成的信息。记下一些详细信息,如mysql超级用户密码和CWP的登录URL,你随后会需要它们。然后,按下回车Enter重启系统。
![](/data/attachment/album/201505/25/233804sisiisibpnis2ys0.png)
重启进入系统后,你会看见CWP的欢迎登录信息。
![](/data/attachment/album/201505/25/233804ewz6392n0o38j8tn.png)
#### 调整防火墙/路由:
CWP的默认网页控制界面的端口是**2030(http)**和**2031(https)**。你应该通过防火墙/路由允许使用这两个端口,以便远程接入CWP网络控制台。
编辑iptables文件:
```
vi /etc/sysconfig/iptables
```
添加如下的内容:
```
[...]
-A INPUT -p tcp -m state --state NEW -m tcp --dport 2030 -j ACCEPT
-A INPUT -p tcp -m state --state NEW -m tcp --dport 2031 -j ACCEPT
[...]
```
保存并关掉文件。更新iptables服务使改变生效。
```
service iptables restart
```
### 进入CWP网络控制台
打开你的浏览器,键入:
**http://IP-Address:2030/**
或
**https://IP-Address:2031/**
你会看到类似下面的屏幕。
登录认证:
* **Username**:root
* **Password**:你的root密码
![](/data/attachment/album/201505/25/233806h7kbtb72f2tobbat.png)
恭喜你!CWP已经安装成功了。
### CWP基本的配置
接下来,我们得做一些事,比如:
1. 设置域名服务器
2. 设置 ip 共享(必须是你的公共IP地址)
3. 设置至少一个托管包(或者编辑默认的包)
4. 设置 root 电子邮件,等等。
#### 设置域名服务器:
为建立域名服务器,找到**DNS Functions -> Edit nameservers IPs**。
![](/data/attachment/album/201505/25/233816ttti0m9imk3m3407.png)
设置你的域名服务器,点击保存按钮。
![](/data/attachment/album/201505/25/233823oob4k6k111xaxb81.png)
#### 建立共享IP和Root邮件地址:
在你的主机上托管网站,这是非常重要的一步。为了建立共享IP,进入**CWP Setting -> Edit settings**。
![](/data/attachment/album/201505/25/233835jgerwwawaa0j08jj.png)
输入你的静态IP和邮件地址,然后点击保存设置按钮。
![](/data/attachment/album/201505/25/233841pnxrh95559n7t9nn.png)
现在,CWP可以进行网站维护了。
#### 建立托管包
一个托管包就是一个网站托管计划,包括允许访问的磁盘空间,带宽,但没有FTP帐号,邮箱地址和数据库等等。你可以建立任意数量的网站托管计划,只要你喜欢。
要添加一个包,从CWP的控制台进入**Packages — Add a Package**
![](/data/attachment/album/201505/25/233851sm9ymsv49vm044ey.png)
输入包的名字,允许访问的磁盘配额/RAM数量,FTP/Email帐号,数据库和子域名等等。点击保存设置按钮,建立一个网站托管计划。
![](/data/attachment/album/201505/25/233859das4zeult283my28.png)
现在,CWP可以管理你的域名了。
#### 添加域名:
创建新的域名,你至少得有一个用户帐号。
而添加一个用户,请进入**User Account -> New Account**。
输入域名(ex.unixmen.com),用户名,密码和邮箱地址等等。最后,点击**Create**。
![](/data/attachment/album/201505/25/233905yn99p8ftppb2w66h.png)
现在,我们添加一个新的域名。
进入**Domains -> Add Domain**。
输入新的域名,并且指定这个域名与用户名关联。
![](/data/attachment/album/201505/25/233911tddbd91en4x3bedr.png)
### 总结
在这篇教程中,我们看到了如何安装和配置CentOS网页面板,来创建一个简单的网站主机环境。CWP安装和使用非常简单。甚至一个菜鸟也可以在几个小时内建立一个基本的网站主机服务器。并且,CWP完全免费和开源。试一试吧!你不会失望的。
你可以在[CentOS Web Panel Wikipage](http://wiki.centos-webpanel.com/)找到更多关于CWP的信息。
加油!
---
via: <http://www.unixmen.com/how-to-install-centos-web-panel-in-centos/>
作者:[SK](http://www.unixmen.com/author/sk/) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,510 | Bodhi Linux 将引入 Moksha 桌面 | http://itsfoss.com/bodhi-linux-introduces-moksha-desktop/ | 2015-05-26T10:00:00 | [
"Bodhi",
"Moksha"
] | https://linux.cn/article-5510-1.html | ![](/data/attachment/album/201505/25/234452uvqgd4g83v6brd83.jpg)
基于Ubuntu的轻量级Linux发行版[Bodhi Linux](http://www.bodhilinux.com/)致力于构建其自家的桌面环境,这个全新桌面环境被称之为Moksha(梵文意为‘完全自由’)。Moksha将替换其原来的[Enlightenment桌面环境](https://www.enlightenment.org/)。
### 为何用Moksha替换Englightenment?
Bodhi Linux的Jeff Hoogland最近[表示](http://www.bodhilinux.com/2015/04/28/introducing-the-moksha-desktop/)了他对新版Enlightenment的不满。直到E17,Enlightenment都十分稳定,并且能满足轻量级Linux的部署需求。而E18则到处都充满了问题,Bodhi Linux只好弃之不用了。
虽然最新的[Bodhi Linux 3.0发行版](http://itsfoss.com/bodhi-linux-3/)仍然使用了E19作为其桌面(除传统模式外,这意味着,对于旧的硬件,仍然会使用E17),Jeff对E19也十分不满。他说道:
>
> 除了性能问题外,对于我个人而言,E19并没有给我带来与E17下相同的工作流程,因为它移除了很多E17的特性。鉴于此,我不得不将我所有的3台Bodhi计算机桌面改成E17——这3台机器都是我高端的了。这不由得让我想到,我们还有多少现存的Bodhi用户也怀着和我同样的感受,所以,我[在我们的用户论坛上开启一个与此相关的讨论](http://forums.bodhilinux.com/index.php?/topic/12322-e17-vs-e19-which-are-you-using-and-why/)。
>
>
>
### Moksha是E17桌面的延续
Moksha将会是Bodhi所热衷的E17桌面的延续。Jeff进一步提到:
>
> 我们将从整合所有Bodhi修改开始。多年来我们一直都只是给源代码打补丁,并修复桌面所带有的问题。如果该工作完成,我们将开始移植一些E18和E19引入的更为有用的特性,最后,我们将引入一些我们认为会改善最终用户体验的东西。
>
>
>
### Moksha何时发布?
下一个Bodhi更新将会是Bodhi 3.1.0,就在今年八月。这个新版本将为所有其默认安装镜像带来Moksha。让我们拭目以待,看看Moksha是否是一个好的决定。
---
via: <http://itsfoss.com/bodhi-linux-introduces-moksha-desktop/>
作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](https://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,511 | Linux Email应用 Geary 更新了 | http://www.omgubuntu.co.uk/2015/03/install-geary-ubuntu-linux-email-update | 2015-05-26T15:36:00 | [
"Geary",
"email"
] | https://linux.cn/article-5511-1.html | **Geary,Linux上流行的桌面email客户端,更新到版本0.10了 — 并且有了很多新的功能。**
![elementary OS上运行的旧版本的Geary](/data/attachment/album/201505/26/153649dywk3qasqudjbkn9.jpg)
*elementary OS上运行的旧版本的Geary*
Geary 0.10有一些不错的用户界面改进以及额外的UI功能,包括:
* 新增: 可以撤销归档、删除以及移动等操作
* 新增: 在2列或者2列布局之间切换
* 新的 “split header bar” — 改进邮件列表,发件人布局
* 新的快捷键 — 使用j/k切换到上/下一封邮件
根据Yorba介绍,这次更新还引入了一个**全新的全文检索算法** ,用来改进Geary的搜索体验。
这个更新应该能平息一下对该应用的搜索能力的抱怨:Geary返回的搜索结果就如同软件自己所宣称的“看起来和查询语句毫不相关”。
>
> ‘Yorba 建议所有这个软件客户端的用户升级到这个版本’
>
>
>
*“尽管并不是所有的搜索问题在0.10版本中都解决了,但Geary能确保显示的结果能和更好的匹配用户的查询,”[团队表示](https://wiki.gnome.org/Apps/Geary/FullTextSearchStrategy)。*
最后同样重要的是,专业用户会喜欢的主要功能:**支持一个账户有多个或者备用的email地址**。
如果你在Geary中设置Gmail账户来收取你的Yahoo,Outlook和KittyMail信件,你可以看到现在它们都整齐地放在一起,当你写信时在'From'栏你可以选择指定账户作为发送人。这并不是最重要,但是却是最经常被人要求的的功能。
这个流行的Linux电子邮件客户端的这次发布主要是bug修复,性能优化以及一些杂项改进。
Yorba建议所有这个客户端的用户都升级到这个发行版。
### 在Ubuntu 14.04, 14.10 & 15.04安装Geary 0.10
![](/data/attachment/album/201505/26/153650ywtkk05tq65yvkz1.jpg)
Yorba的最新版本可以从GNOME的Git账户下载可编译的源代码。但说实话:这不是有点麻烦吗?
Ubuntu用户想知道如何在 **14.04,14.10** 以及 **15.04**(那些更新爱好者) 上安装Geary 0.10。
官方的Youba PPA包括了 **Geary 最新版本** 以及Shotwell(照片管理器)和[California](http://www.omgubuntu.co.uk/2014/10/california-calendar-natural-language-parser)(日历应用)。请注意添加这个PPA会使你电脑上任何已经安装的这些应用更新到最近的版本。
Capiche? Coolio.
在Ubuntu上安装Geary你首先需要添加Yorba PPA和你的软件源。做这些你只需要打开终端窗口并小心地输入下面的两条命令:
```
sudo add-apt-repository ppa:yorba/ppa
sudo apt-get update && sudo apt-get install geary
```
在输入最后一条命令并敲击回车键后会提示输入你的密码。输入密码让安装完成。
![](/data/attachment/album/201505/26/153650dsjhtr4ra4nlsaa1.png)
完成后,打开你的桌面环境应用启动面板并查找‘Geary’图标。点击它,添加你的账户并查看[通过信息高速公路下载了什么](https://www.youtube.com/watch?v=rxM8C71GB8w),开始使用简单的图形界面吧。
别忘记:你可以通过电子邮件告诉我们你想看的新闻,应用建议,以及任何你想我们包括的东西。
---
via: <http://www.omgubuntu.co.uk/2015/03/install-geary-ubuntu-linux-email-update>
作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,512 | ‘Unity Greeter Badges’:将丢失的会话图标带回Ubuntu登录屏幕 | http://www.omgubuntu.co.uk/2015/01/unity-greeter-badges-brings-missing-session-icons-ubuntu-login-screen | 2015-05-26T15:59:30 | [
"Unity"
] | https://linux.cn/article-5512-1.html | ![](/data/attachment/album/201505/26/155932nbm2gtx1aj7gnt66.jpg)
新出现在**Ubuntu 15.04中的一个软件包解决了我对Unity 欢迎屏的微词:像Cinnamon这样的其它Linux桌面会话没有徽章图标。**
我知道这有点吹毛求疵了;这只是对大多数人而言几乎毫无影响的视觉瑕疵罢了。但是这种不一致性时时刻刻缠绕着我,让我不胜其烦,因为Ubuntu的一些会话带有徽章图标,包括Unity、GNOME和KDE。而剩下的其它桌面环境,包括它自己的一些旁系产品,像Xubuntu,只会在会话切换列表和主用户界面显示了一个不能再简单的白点。
这些点点们造成的这种不一致性刺激着我的神经,即使它只是稍纵即逝,但这种刺激不仅仅来自设计,也来自可用性方面。标牌式的标志符号对于让我们知道我们即将登陆到哪个会话很有帮助。
例如,你能告诉我们这个是个什么会话呢?
![](/data/attachment/album/201505/26/155932plnvjkpank7wyvyn.jpg)
Budgie? 也许是 MATE? 也能是 Cinnamon……我必须点开它才能知道。
没有必要这样做啊。构建Unity Greeter,就是为了让桌面环境开发者能够部署徽章到欢迎屏幕中(有些确实这样做了)。但在许多情况下,像MATE,它的包来自上游的Debian,想要移植一个“Ubuntu专用的补丁包”不太可取,也不太可能。
### 一个解决方案出炉了
一位有经验的Debian维护者[Doug Torrance](https://launchpad.net/%7Eprofzoom)有了修复该可用性瑕疵的解决方案。与其依赖桌面制造者自己来添加品牌式徽章到他们的包中,与其给Ubuntu增加维护它的责任重担,Torrance还不如自己创建了一个独立的‘unity-greeter-badges’包来收容它们。
承担起了直接提供会话标志的假定责任后,该包确保能同时迎合新旧窗口管理器、会话和桌面。
在30个左右的桌面环境列表中,它为以下桌面捆绑了新的会话徽章:
* Xubuntu
* Cinnamon
* MATE
* Cairo-Dock
* Xmonad
* Awesome
* OpenBox
* Pantheon
最重要的是,‘**Unity-Greeter-Badges**’已经被Ubuntu 15.04收录进去。这就意味着Torrance的包将可以直接安装,不需要PPA,也不需要下载。没有像Unity Greeter一样成为核心包的一部分,它可以以更高效和更及时的方式更新新的图标。
如果你真运行着Ubuntu 15.04,在不久的将来,你就可以从软件中心获取并安装该包了。
不想等到15.04?Torrance已经为Ubuntu 14.04和Ubuntu 14.10用户做了个.deb安装器。
* [下载用于Ubuntu 14.04的unity-greeter-badges](https://launchpad.net/%7Eprofzoom/+archive/ubuntu/misc/+files/unity-greeter-badges_0.1-0ubuntu1%7E201412111501%7Eubuntu14.04.1_all.deb)
* [下载用于Ubuntu 14.10的unity-greeter-badges](https://launchpad.net/%7Eprofzoom/+archive/ubuntu/misc/+files/unity-greeter-badges_0.1-0ubuntu1%7E201412111501%7Eubuntu14.10.1_all.deb)
---
via: <http://www.omgubuntu.co.uk/2015/01/unity-greeter-badges-brings-missing-session-icons-ubuntu-login-screen>
作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,517 | 指南:使用 Trickle 限制应用程序带宽占用 | http://www.tecmint.com/manage-and-limit-downloadupload-bandwidth-with-trickle-in-linux/ | 2015-05-27T09:56:00 | [
"Trickle"
] | https://linux.cn/article-5517-1.html | 有没有遇到过系统中的某个应用程序独占了你所有的网络带宽的情形?如果你有过这样的遭遇,那么你就会感受到Trickle这种带宽调整应用的价值。不管你是一个系统管理员还只是普通Linux用户,都需要学习如何控制应用程序的上下行速度,来确保你的网络带宽不会被某个程序霸占。
![Install Trickle Bandwidth Limit in Linux](/data/attachment/album/201505/27/000021s8uwj3ig8voull7c.png)
*在 Linux 上安装 Trickle 带宽限制*
### 什么是 Trickle?
Trickle是一个网络带宽调整工具,可以让我们管理应用程序的网络上下行速度,使得可以避免其中的某个应用程序霸占了全部或大部分可用的带宽。换句话说,Trickle可以让你基于单个应用程序来控制网络流量速率,而不是仅仅针对与单个用户——这是在客户端网络环境中经典的带宽调整情况。
### Trickle 是如何工作的?
另外,trickle 可以帮助我们基于应用来定义优先级,所以当对整个系统进行了全局限制设定,高优先级的应用依然会自动地获取更多的带宽。为了实现这个目标,trickle 对 TCP 连接上的套接字的数据发送、接收设置流量限制。我们必须注意到,除了影响传输速率之外,在这个过程中,trickle任何时候都不会以任何方式来改变其中的数据。
### Trickle不能做什么?
这么说吧,唯一的限制就是,trickle不支持静态链接的应用程序或者具有SUID或SGID位设置的二进制程序,因为它使用动态链接的方式将其载入到需要调整的进程和其关联的网络套接字之间。 Trickle此时会在这两种软件组件之间扮演代理的角色。
由于trickle并不需要超级用户的权限来运行,所以用户可以设置他们自己的流量限制。可能这并不是你想要的,我们会探索如何使用全局设定来限制系统中的所有用户的流量限制。也即是说,此时系统中的每个用户具有管理各自的流量速率,但是无论如何,都会受到系统管理员给他们设置的总体限制。
在这篇文章中,我们会描述如何通过trickle在linux平台上管理应用程序使用的网络带宽。为了生成所需的流量,在此会在客户端(CentOS 7 server – dev1: 192.168.0.17)上使用 ncftpput 和 ncftpget, 在服务器(Debian Wheezy 7.5 – dev2: 192.168.0.15)上使用vsftpd 来进行演示。 相同的指令也可以在RedHat,Fedora和Ubuntu等系统使用。
#### 前提条件
1. 对于 RHEL/CentOS 7/6, [开启EPEL仓库](/article-2324-1.html)。这些用于企业版 Linux 的额外软件包是一个由Fedora项目维护的高质量、开源的软件仓库,而且百分之百与其衍生产品相兼容,如企业版本Linux和CentOS。 在这个仓库中trickle和ncftp两者都是可用的。
2. 按照如下方式安装ncftp:
```
# yum update && sudo yum install ncftp [基于 RedHat 的系统]
# aptitude update && aptitude install ncftp [基于 Debian 的系统]
```
3. 在单独的服务器上设置一个FTP服务器。需要注意的是,尽管FTP天生就不安全,但是仍然被广泛应用在安全性无关紧要的文件上传下载中。 在这篇文章中我们使用它来演示trickle的优点,同时它也会在客户端的标准输出流中显示传输速率。我们将是否在其它时间使用它放在一边讨论。
```
# yum update && yum install vsftpd [基于 RedHat 的系统]
# aptitude update && aptitude install vsftpd [基于 Debian 的系统]
```
现在,在FTP服务器上按照以下方式编辑 /etc/vsftpd/vsftpd.conf 文件。
```
anonymous_enable=NO
local_enable=YES
chroot_local_user=YES
allow_writeable_chroot=YES
```
在此之后,确保在你的当前会话中启动了vsftpd,并在之后的启动中让其自动启动。
```
# systemctl start vsftpd [基于 systemd 的系统]
# systemctl enable vsftpd
# service vsftpd start [基于 init 的系统]
# chkconfig vsftpd on
```
4. 如果你选择在一个使用 SSH 密钥进行远程访问的 CentOS/RHEL 7中搭建FTP服务器,你需要一个密码受保护的用户账户,它能访问**root目录之外**的某个目录,并有能在其中上传和下载文件的权限。
你可以通过在你的浏览器中输入以下的URL来浏览你的家目录。一个登录窗口会弹出来提示你输入FTP服务器中的有效的用户名和密码。
```
ftp://192.168.0.15
```
如果验证成功,你就会看到你的家目录中的内容。该教程的稍后部分中,你将可以刷新页面来显示在你之前上传过的文件。
![FTP Directory Tree](/data/attachment/album/201505/27/000022uss86zfha628obvc.png)
*FTP 目录树*
### 如何在Linux中安装 trickle
1. 通过yum或aptitude来安装trickle.
为了确保能够成功安装,最好在安装工具之前,保证当前的安装包是最新的版本。
```
# yum -y update && yum install trickle [基于 RedHat 的系统]
# aptitude -y update && aptitude install trickle [基于 Debian 的系统]
```
2. 确认trickle是否对特定的二进制包有用。
之前我们解释过,trickle只对使用动态或共享的库的二进制包有用。为了确认我们是否可以对某个特定的应用使用trickle,我们可以使用著名的ldd(列出动态依赖)工具。 特别地,我们会查看任何给定程序的动态依赖中其当前使用的glibc,因为其准确地定义了通过套接字通讯所使用的系统调用。
对一个给定的二进制包执行以下命令来查看是否能对其使用trickle进行带宽调整:
```
# ldd $(which [binary]) | grep libc.so
```
例如,
```
# ldd $(which ncftp) | grep libc.so
```
其输出是:
```
# libc.so.6 => /lib64/libc.so.6 (0x00007efff2e6c000)
```
输出中的括号中的字符可能在不同的系统平台有所不同,甚至相同的命令在不同的时候运行也会不同,因为其代表包加载到物理内存中的地址。
如果上面的命令没有返回任何的结果,就说明这个二进制包没有使用libc包,因此trickle对其不能起到带宽调整的作用。
### 学习如何使用Trickle
最基本的用法就是使用其独立模式,通过这种方式,trickle用来显式地定义给定应用程序的上传下载速率。如前所述,为了简单,我们会使用相同的应用来进行上传下载测试。
#### 在独立模式下运行trickle
我们会比较在有无trickle的情况下的上传下载速率, ‘-d’选项指示下载速率(KB/s单位),而'-u'选项指示相同单位的上传速率。另外我们会使用到‘-s’选项来指定trickle应该以独立模式运行。
以独立模式运行trickle的基本语法如下:
```
# trickle -s -d [下载速率,KB/s] -u [上传速率,KB/s]
```
为了能够让你自己运行以下样例,确保你在自己的客户端安装了trickle和ncftp(我的是192.168.0.17)。
**样例1:在有无trickle的情况下上传一个2.8 MB的PDF文件。**
我们使用一个自由发布的[LInux基础知识PDF文件](http://linux-training.be/files/books/LinuxFun.pdf)来进行下面的测试。
你可以首先使用下面的命令将这个文件下载到你当前的工作目录中:
```
# wget http://linux-training.be/files/books/LinuxFun.pdf
```
下面是在没有trickle的情况下将一个文件上传到我们的FTP服务器的语法:
```
# ncftpput -u username -p password 192.168.0.15 /remote_directory local-filename
```
其中的 /remote\_directory 是相对于该用户的家目录的上传路径,而local-filename是一个你当前工作目录中的文件。
特别的是,在没有trickle的情形下,我们可以得到上传峰值速率52.02MB/s(请注意,这个不是真正的平均上传速率,而是峰值开始的瞬时值),而且这个文件几乎在瞬间就完成了上传。
```
# ncftpput -u username -p password 192.168.0.15 /testdir LinuxFun.pdf
```
输出:
```
LinuxFun.pdf: 2.79 MB 52.02 MB/s
```
在使用trickle的情况下,我们会限制上传速率在5KB/s。在第二次上传文件之前,我们需要在目标目录中删除这个文件,否则ncftp就会通知我们在目标目录中已经存在了与上传文件相同的文件,从而不会执行文件的传输:
```
# rm /absolute/path/to/destination/directory/LinuxFun.pdf
```
然后:
```
# trickle -s -u 5 ncftpput -u username -p password 111.111.111.111 /testdir LinuxFun.pdf
```
输出:
```
LinuxFun.pdf: 2.79 MB 4.94 kB/s
```
在上面的样例中,我们看到平均的上传速率下降到了5KB/s。
**样例2:在有无trickle的情况下下载相同的2.8MB的PDF文件**
首先,记得从原来的源目录中删除这个PDF:
```
# rm /absolute/path/to/source/directory/LinuxFun.pdf
```
请注意,下面的样例中将远程的文件下载到客户端机器的当前目录下,这是由FTP服务器的IP地址后面的“.”决定的。
没有trickle的情况下:
```
# ncftpget -u username -p password 111.111.111.111 . /testdir/LinuxFun.pdf
```
输出:
```
LinuxFun.pdf: 2.79 MB 260.53 MB/s
```
在有trickle的情况下,限制下载速率在20KB/s:
```
# trickle -s -d 30 ncftpget -u username -p password 111.111.111.111 . /testdir/LinuxFun.pdf
```
输出:
```
LinuxFun.pdf: 2.79 MB 17.76 kB/s
```
### 在监督[非托管]模式下运行Trickle
trickle也可以按照/etc/trickled.conf文件中定义的一系列参数运行在非托管模式下。 这个文件定义了守护线程 trickled的行为以及如何管理trickle。
另外,如果你想要全局设置被所有的应用程序使用的话,我们就会需要使用trickle命令。 这个命令运行守护进程,并允许我们通过trickle定义所有应用程序共享的上传下载限制,不需要我们每次来进行指定。
例如,运行:
```
# trickled -d 50 -u 10
```
会导致任何通过trickle运行的应用程序的上传下载速率分别限制在30kb/s和10kb/s。
请注意,你可以在任何时间都能确认守护线程trickled是否正在运行以及其运行参数:
```
# ps -ef | grep trickled | grep -v grep
```
输出:
```
root 16475 1 0 Dec24 ? 00:00:04 trickled -d 50 -u 10
```
**样例3:在使用/不使用trickle的情形下上传一个 19MB 的mp4文件到我们的FTP服务器。**
在这个样例中,我们会使用“He is the gift”的自由分发视频,可以通过这个[链接](http://media2.ldscdn.org/assets/missionary/our-people-2014/2014-00-1460-he-is-the-gift-360p-eng.mp4)下载。
我们将会在开始时通过以下的命令将这个文件下载到你的当前工作目录中:
```
# wget http://media2.ldscdn.org/assets/missionary/our-people-2014/2014-00-1460-he-is-the-gift-360p-eng.mp4
```
首先,我们会使用之前列出的命令来开启守护进程trickled:
```
# trickled -d 30 -u 10
```
在不使用trickle时:
```
# ncftpput -u username -p password 192.168.0.15 /testdir 2014-00-1460-he-is-the-gift-360p-eng.mp4
```
输出:
```
2014-00-1460-he-is-the-gift-360p-eng.mp4: 18.53 MB 36.31 MB/s
```
在使用trickle时:
```
# trickle ncftpput -u username -p password 192.168.0.15 /testdir 2014-00-1460-he-is-the-gift-360p-eng.mp4
```
输出:
```
2014-00-1460-he-is-the-gift-360p-eng.mp4: 18.53 MB 9.51 kB/s
```
我们可以看到上面的输出,上传的速率下降到了约 10KB/s。
\*\* 样例4:在使用/不使用trickle的情形下下载这个相同的视频 \*\*
与样例2一样,我们会将该文件下载到当前工作目录中。
在没有trickle时:
```
# ncftpget -u username -p password 192.168.0.15 . /testdir/2014-00-1460-he-is-the-gift-360p-eng.mp4
```
输出:
```
2014-00-1460-he-is-the-gift-360p-eng.mp4: 18.53 MB 108.34 MB/s
```
有trickle的时:
```
# trickle ncftpget -u username -p password 111.111.111.111 . /testdir/2014-00-1460-he-is-the-gift-360p-eng.mp4
```
输出:
```
2014-00-1460-he-is-the-gift-360p-eng.mp4: 18.53 MB 29.28 kB/s
```
上面的结果与我们之前设置的下载限速相对应(30KB/s)。
**注意:** 一旦守护进程开启之后,就没有必要使用trickle来为每个应用程序来单独设置限制。
如前所述,人们可以进一步地通过trickled.conf来客制化trickle的带宽速率调整,该文件的一个典型的分段有以下部分组成:
```
[service]
Priority = <value>
Time-Smoothing = <value>
Length-Smoothing = <value>
```
其中,
* [service] 用来指示我们想要对其进行带宽使用调整的应用程序名称
* Priority 用来让我们为某个服务制定一个相对于其他服务高的优先级,这样就不允许守护进程管理中的一个单独的应用程序来占用所有的带宽。越小的数字代表更高的优先级。
* Time-Smoothing [以秒计]: 定义了trickled让各个应用程序传输或接收数据的时间间隔。小的间隔值(0.1-1秒)对于交互式应用程序是理想的,因为这样会具有一个更加平滑的会话体验,而一个相对较大的时间间隔值(1-10秒)对于需要批量传输应用程序就会显得更好。如果没有指定该值,默认是5秒。
* Length-smoothing [KB 单位]: 该想法与Time-Smoothing如出一辙,但是是基于I/O操作而言。如果没有指定值,会使用默认的10KB。
上述平滑值(Time-Smoothing、 Length-smoothing)的改变会被翻译为将指定的服务的使用一个间隔值而不是一个固定值。不幸的是,没有一个特定的公式来计算间隔值的上下限,主要依赖于特定的应用场景。
下面是一个在CentOS 7 客户端中的trickled.conf 样例文件(192.168.0.17):
```
[ssh]
Priority = 1
Time-Smoothing = 0.1
Length-Smoothing = 2
[ftp]
Priority = 2
Time-Smoothing = 1
Length-Smoothing = 3
```
使用该设置,trickled会为SSH赋予比FTP较高的传输优先级。值得注意的是,一个交互进程,例如SSH,使用了一个较小的时间间隔值,然而一个处理批量数据传输的服务如FTP,则使用一个较大的时间间隔来控制之前的样例中的上传下载速率,尽管不是百分百的由trickled指定的值,但是也已经非常接近了。
### 总结
在该文章中,我们探索了使用trickle在基于Fedora发行版和Debian衍生版平台上来限制应用程序的带宽使用。也包含了其他的可能用法,但是不对以下情形进行限制:
* 限制系统工具的下载速度,例如[wget](http://www.tecmint.com/10-wget-command-examples-in-linux/),或 BT客户端.
* 限制你的系统的包管理工具[`yum`](http://www.tecmint.com/20-linux-yum-yellowdog-updater-modified-commands-for-package-mangement/)更新的速度 (如果是基于Debian系统的话,其包管理工具为[`aptitude`](http://www.tecmint.com/dpkg-command-examples/))。
* 如果你的服务器是在一个代理或防火墙后面(或者其本身即是代理或防火墙的话),你可以使用trickle来同时设定下载和上传速率,或者客户端或外部通讯的速率。
欢迎提问或留言。
---
via: <http://www.tecmint.com/manage-and-limit-downloadupload-bandwidth-with-trickle-in-linux/>
作者:[Gabriel Cánepa](http://www.tecmint.com/author/gacanepa/) 译者:[theo-l](https://github.com/theo-l) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,522 | Synfig Studio 1.0:开源动画动真格的了 | http://www.omgubuntu.co.uk/2015/04/synfig-studio-new-release-features | 2015-05-27T13:50:23 | [
"Synfig Studio"
] | https://linux.cn/article-5522-1.html | ![](/data/attachment/album/201505/27/135027e58vi11vy1iiycvq.jpg)
\**现在可以下载 Synfig Studio 这个自由、开源的2D动画软件的全新版本了。 \**
在这个跨平台的软件首次发行一年之后,Synfig Studio 1.0 带着一套全新改进过的功能,实现它所承诺的“创造电影级的动画的工业级解决方案”。
在众多功能之上的是一个改进过的用户界面,据项目开发者说那是个用起来‘更简单’、‘更直观’的界面。客户端添加了新的**单窗口模式**,让界面更整洁,而且**使用了最新的 GTK3 库重制**。
在功能方面有几个值得注意的变化,包括新加的全功能骨骼系统。
这套**关节和转轴的‘骨骼’构架**非常适合2D剪纸动画,再配上这个版本新加的复杂的变形控制系统或是 Synfig 受欢迎的‘关键帧自动插入’(即:帧到帧之间的变形)应该会变得非常有效率的。(youtube视频 <https://www.youtube.com/M8zW1qCq8ng> )
新的无损剪切工具,摩擦力效果和对逐帧位图动画的支持,可能会有助于释放开源动画师们的创造力,更别说新加的用于同步动画的时间线和声音的声效层!
### 下载 Synfig Studio 1.0
Synfig Studio 并不是任何人都能用的工具套件,这最新发行版的最新一批改进应该能吸引一些动画制作者试一试这个软件。
如果你想看看开源动画制作软件是什么样的,你可以通过下面的链接直接从工程的 Sourceforge 页下载一个适用于 Ubuntu 的最新版本的安装器。
* [下载 Synfig 1.0 (64bit) .deb 安装器](http://sourceforge.net/projects/synfig/files/releases/1.0/linux/synfigstudio_1.0_amd64.deb/download)
* [下载 Synfig 1.0 (32bit) .deb 安装器](http://sourceforge.net/projects/synfig/files/releases/1.0/linux/synfigstudio_1.0_x86.deb/download)
---
via: <http://www.omgubuntu.co.uk/2015/04/synfig-studio-new-release-features>
作者:[oey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[H-mudcup](https://github.com/H-mudcup) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 301 | Moved Permanently | null |
5,523 | zBackup:一个多功能的去重备份工具 | http://www.ubuntugeek.com/zbackup-a-versatile-deduplicating-backup-tool.html | 2015-05-27T14:59:00 | [
"zBackup",
"备份"
] | https://linux.cn/article-5523-1.html | zbackup是一个基于rsync思想的全局去重数据备份工具。给它传入一个大的tar文件后,它会仅存储一次该文件的重复部分,然后对结果进行压缩,并根据参数确定是否对其加密。传入另一个tar文件后,它会从之前的已备份文件中复用重复数据。只有新的改动会被保存,并且只要文件差异不是很大,需要的存储空间非常少。无论何时,之前的已备份文件都可以被完整地读出来。
![](/data/attachment/album/201505/27/145946u9yfzo379gf9jxpy.png)
### zBackup特性
* 使用并行的LZMA或者LZO压缩算法压缩已备份数据
* 使用内置的AES加密算法加密已备份数据
* 可以删除旧的已备份数据
* 使用一个64位滚动哈希,保持软碰撞数量为0
* 备份库由不可更改的文件组成,只有库中不存在的文件才能修改
* 使用C++语言编写,并且只有适量的依赖库
* 可以在生产环境安全使用
* 可以在不同备份库中交换数据而无需重新压缩
### 在ubuntu中安装zBackup
打开终端并运行如下命令:
```
sudo apt-get install zbackup
```
### 使用zBackup
`zbackup init`命令会初始化一个备份库,用来存放待备份的数据。
```
zbackup init [--non-encrypted] [--password-file ~/.my_backup_password ] /my/backup/repo
```
`zbackup backup`命令备份一个由`tar c`命令创建的tar文件到刚才使用`zbackup init`初始化的备份库。(LCTT 译注:实际使用时类似这样,tar c files | zbackup ...)
```
zbackup [--password-file ~/.my_backup_password ] [--threads number_of_threads ] backup /my/backup/repo/backups/backup-`date ‘+%Y-%m-%d'`
```
`zbackup restore`命令从备份库中恢复一个已备份文件到tar文件中。
```
zbackup [--password-file ~/.my_backup_password ] [--cache-size cache_size_in_mb ] restore /my/backup/repo/backups/backup-`date ‘+%Y-%m-%d'` > /my/precious/backup-restored.tar
```
### 可用选项
* -non-encrypted -- 不加密备份库。
* --password-file ~/.my*backup*password -- 使用位于~/.my*backup*password的口令文件来加密备份库和待备份文件,以及解密已备份文件。
* --threads number*of*threads -- 限制并行LZMA压缩的线程数为 number*of*threads。建议在32位的系统平台使用。
* --cache-size cache*size*in*mb -- 使用cache*size*in*mb中的缓存大小来加速恢复文件的过程。
### 上述命令中 zBackup 相关文件
* ~/.my*backup*password 用来加密备份库和待备份文件,以及解密已备份文件。更多细节见zbackup。
* /my/backup/repo 存放备份库的目录。
* /my/precious/restored-tar 用来恢复已备份文件的tar文件。
* /my/backup/repo/backups/backup-`date ‘+%Y-%m-%d'` 指定的之前已备份文件的文件名。
---
via: <http://www.ubuntugeek.com/zbackup-a-versatile-deduplicating-backup-tool.html>
作者:[ruchi](http://www.ubuntugeek.com/author/ubuntufix) 译者:[goreliu](https://github.com/goreliu) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
| 200 | OK | # zBackup – A versatile deduplicating backup tool
**Sponsored Link**
**zBackup Features**
Parallel LZMA or LZO compression of the stored data
Built-in AES encryption of the stored data
Possibility to delete old backup data
Use of a 64-bit rolling hash, keeping the amount of soft collisions to zero
Repository consists of immutable files. No existing files are ever modified
Written in C++ only with only modest library dependencies
Safe to use in production
Possibility to exchange data between repos without recompression
**Install zBackup in ubuntu**
Open the terminal and run the following command
sudo apt-get install zbackup
**Using zBackup**
zbackup init initializes a backup repository for the backup files to be stored.
zbackup init [--non-encrypted] [--password-file ~/.my_backup_password ] /my/backup/repo
zbackup backup backups a tar file generated by tar c to the repository initialized using zbackup init
zbackup [--password-file ~/.my_backup_password ] [--threads number_of_threads ] backup /my/backup/repo/backups/backup-`date ‘+%Y-%m-%d'`
zbackup restore restores the backup file to a tar file.
zbackup [--password-file ~/.my_backup_password [--cache-size cache_size_in_mb restore /my/backup/repo/backups/backup-`date ‘+%Y-%m-%d'` > /my/precious/backup-restored.tar
**Available Options**
--non-encrypted -- Do not encrypt the backup repository.
--password-file ~/.my_backup_password -- Use the password file specified at ~/.my_backup_password to encrypt the repository and backup file, or to decrypt the backup file.
--threads number_of_threads -- Limit the partial LZMA compression to number_of_threads needed. Recommended for 32-bit architectures.
--cache-size cache_size_in_mb -- Use the cache size provided by cache_size_in_mb to speed up the restoration process.
**zBackup files**
~/.my_backup_password Used to encrypt the repository and backup file, or to decrypt the backup file. See zbackup for further details.
/my/backup/repo The directory used to hold the backup repository.
/my/precious/restored-tar The tar used for restoring the backup.
/my/backup/repo/backups/backup-`date ‘+%Y-%m-%d'` Specifies the backup file. |