id
int64
2.05k
16.6k
title
stringlengths
5
75
fromurl
stringlengths
19
185
date
timestamp[s]
tags
sequencelengths
0
11
permalink
stringlengths
20
37
content
stringlengths
342
82.2k
fromurl_status
int64
200
526
status_msg
stringclasses
339 values
from_content
stringlengths
0
229k
5,020
Linux有问必答:如何通过命令行创建和设置一个MySQL用户
http://ask.xmodulo.com/create-configure-mysql-user-command-line.html
2015-03-10T14:47:00
[ "MySQL", "权限", "用户" ]
/article-5020-1.html
> > **问题**:我想要在MySQL服务器上创建一个新的用户帐号,并且赋予他适当的权限和资源限制。如何通过命令行的方式来创建并且设置一个MySQL用户呢? > > > 要访问一个MySQL服务器,你需要使用一个用户帐号登录其中方可进行。每个MySQL用户帐号都有许多与之相关连的属性,例如用户名、密码以及权限和资源限制。"权限"定义了特定用户能够在MySQL服务器中做什么,而"资源限制"为用户设置了一系列服务器资源的使用许可。创建或更新一个用户涉及到了对用户帐号所有属性的管理。 ![](/data/attachment/album/201503/09/225223sqmzxqxobzcwrws0.jpg) 下面展示了如何在Linux中创建和设置一个MySQL用户。 首先以root身份登录到MySQL服务器中。 ``` $ mysql -u root -p ``` 当验证提示出现的时候,输入MySQL的root帐号的密码。 ![](/data/attachment/album/201503/09/225229xtdzjini0pvf0djs.jpg) ### 创建一个MySQL用户 使用如下命令创建一个用户名和密码分别为"myuser"和"mypassword"的用户。 ``` mysql> CREATE USER 'myuser'@'localhost' IDENTIFIED BY 'mypassword'; ``` 一旦用户被创建后,包括加密的密码、权限和资源限制在内的所有帐号细节都会被存储在一个名为**user**的表中,这个表则存在于**mysql**这个特殊的数据库里。 运行下列命令,验证帐号是否创建成功 ``` mysql> SELECT host, user, password FROM mysql.user WHERE user='myuser'; ``` ### 赋予MySQL用户权限 一个新建的MySQL用户没有任何访问权限,这就意味着你不能在MySQL数据库中进行任何操作。你得赋予用户必要的权限。以下是一些可用的权限: * **ALL**: 所有可用的权限 * **CREATE**: 创建库、表和索引 * **LOCK\_TABLES**: 锁定表 * **ALTER**: 修改表 * **DELETE**: 删除表 * **INSERT**: 插入表或列 * **SELECT**: 检索表或列的数据 * **CREATE\_VIEW**: 创建视图 * **SHOW\_DATABASES**: 列出数据库 * **DROP**: 删除库、表和视图 运行以下命令赋予"myuser"用户特定权限。 ``` mysql> GRANT <privileges> ON <database>.<table> TO 'myuser'@'localhost'; ``` 以上命令中,<privileges> 代表着用逗号分隔的权限列表。如果你想要将权限赋予任意数据库(或表),那么使用星号(\*)来代替数据库(或表)的名字。 例如,为所有数据库/表赋予 CREATE 和 INSERT 权限: ``` mysql> GRANT CREATE, INSERT ON *.* TO 'myuser'@'localhost'; ``` 验证给用户赋予的全权限: ``` mysql> SHOW GRANTS FOR 'myuser'@'localhost'; ``` ![](/data/attachment/album/201503/09/225232hkf2q5upzd02tp2o.jpg) 将全部的权限赋予所有数据库/表: ``` mysql> GRANT ALL ON *.* TO 'myuser'@'localhost'; ``` 你也可以将用户现有的权限删除。使用以下命令废除"myuser"帐号的现有权限: ``` mysql> REVOKE <privileges> ON <database>.<table> FROM 'myuser'@'localhost'; ``` ### 为用户添加资源限制 在MySQL中,你可以为单独的用户设置MySQL的资源使用限制。可用的资源限制如下: * **MAX\_QUERIES\_PER\_HOUR**: 允许的每小时最大请求数量 * **MAX\_UPDATES\_PER\_HOUR**: 允许的每小时最大更新数量 * **MAX\_CONNECTIONS\_PER\_HOUR**: 允许的每小时最大连接(LCTT译注:[其与 MySQL全局变量: max\_user\_connections 共同决定用户到数据库的同时连接数量](http://dev.mysql.com/doc/refman/5.0/en/user-resources.html))数量 * **MAX\_USER\_CONNECTIONS**: 对服务器的同时连接量 使用以下命令为"myuser"帐号增加一个资源限制: ``` mysql> GRANT USAGE ON <database>.<table> TO 'myuser'@'localhost' WITH <resource-limits>; ``` 在 <resource-limits> 中你可以指定多个使用空格分隔开的资源限制。 例如,增加 MAX*QUERIES*PER*HOUR 和 MAX*CONNECTIONS*PER*HOUR 资源限制: ``` mysql> GRANT USAGE ON *.* TO 'myuser'@'localhost' WITH MAX_QUERIES_PER_HOUR 30 MAX_CONNECTIONS_PER_HOUR 6; ``` 验证用户的资源限制: ``` mysql> SHOW GRANTS FOR 'myuser'@'localhost; ``` ![](/data/attachment/album/201503/09/225239iu727va7ha54frbr.jpg) 创建和设置一个MySQL用户最后的一个重要步骤: ``` mysql> FLUSH PRIVILEGES; ``` 如此一来更改便生效了。现在MySQL用户帐号就可以使用了。 --- via: <http://ask.xmodulo.com/create-configure-mysql-user-command-line.html> 译者:[Ping](http://weibo.com/370321376) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /create-configure-mysql-user-command-line.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c5390>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)"))
null
5,021
Debian 8.0 Jessie 或许能在四月份提前发布
http://www.phoronix.com/scan.php?page=news_item&px=Debian-8.0-April-Release-Maybe
2015-03-09T23:09:00
[ "Debian", "Debian 8", "Jessie" ]
https://linux.cn/article-5021-1.html
虽然几个月前,就[尝试过在二月份之前发布 Debian 8.0](http://www.phoronix.com/scan.php?page=news_item&px=MTgzNDQ),但是似乎我们有可能在四月份就看到这个已经等待了太久的 Jessie。 在昨天,Debian 发布组的 Niels Thykier [写道](https://lists.debian.org/debian-devel-announce/2015/03/msg00002.html): “...从这一点看,四月份发布也许是*可能*的,**不过**,这需要我们埋头苦干,把所有剩下的 bug 搞定才行。” ![](/data/attachment/album/201503/09/230953fwc626n3csopxmmu.jpeg) 截止至昨晚,还有55个影响 Sid 和 Jessie 的 RC bug 没解决,非关键性的软件包上还有17个 RC bug,而且发行注记也需要做很多修订。
301
Moved Permanently
null
5,022
经过 systemd 争执后,辞职的 Debian TC 席位已被增补
http://www.phoronix.com/scan.php?page=news_item&px=Debian-TC-Three-Appointments
2015-03-10T09:06:00
[ "Debian", "systemd" ]
https://linux.cn/article-5022-1.html
去年随着Debian 以 systemd 作为 init 管理器的决议,以及随后的 [init 系统投票](http://www.phoronix.com/scan.php?page=news_item&px=MTg0MzY),有三个人从 Debian 技术委员会[退出](http://linux.cn/article-4256-1.html):Colin Watson, [Ian Jackson](http://www.phoronix.com/scan.php?page=news_item&px=MTg0NDA), 以及 [Russ Allbery](http://www.phoronix.com/scan.php?page=news_item&px=MTg0MjM)。现在,这些空缺席位现已由现有的技术委员会成员任命。 新任命的技术委员会成员是 Sam Hartman, Tollef Fog Heen 以及 Didier Raboud。这些新成员加上Bdale Garbee, Don Armstrong, Andreas Barth, Steve Langasek 以及 Keith Packard 组成了现在的Debian技术委员会。由Debian章程确定的 Debian 技术委员会(TC)负责对 Debian 项目中的技术争端做出最后的决定,他们在去年所有的关于 init 系统的讨论中变得十分重要。 ![](/data/attachment/album/201503/10/090756tq6u1rowp62fu6fv.jpeg) 新技术委员会成员的委任公告可以从 [debian-devel-announce列表](https://lists.debian.org/debian-devel-announce/2015/03/msg00003.html) 中获悉。 --- via: <http://www.phoronix.com/scan.php?page=news_item&px=Debian-TC-Three-Appointments> 作者:[Michael Larabel](http://www.michaellarabel.com/) 译者:[alim0x](https://github.com/alim0x) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,023
在 Linux 上配置一个 syslog 服务器
http://xmodulo.com/configure-syslog-server-linux.html
2015-03-10T15:17:00
[ "日志", "syslog", "rsyslog" ]
https://linux.cn/article-5023-1.html
syslog服务器可以用作一个网络中的日志监控中心,所有能够通过网络来发送日志的设施(包含了Linux或Windows服务器,路由器,交换机以及其他主机)都可以把日志发送给它。 通过设置一个syslog服务器,可以将不同设施/主机发送的日志,过滤和合并到一个独立的位置,这样使得你更容易地查看和获取重要的日志消息。 **rsyslog** 作为标准的syslog守护进程,预装在了大多数的Linux发行版中。在客户端/服务器架构的配置下,**rsyslog**同时扮演了两种角色:1.作为一个syslog服务器,**rsyslog**可以收集来自其他设施的日志信息;2.作为一个syslog客户端,**rsyslog**可以将其内部的日志信息传输到远程的syslog服务器。 在此,我们演示了在linux上如何通过**rsyslog**来配置一个中心化syslog服务器。 在进入详解之前,先温习一下syslog标准。 ![](/data/attachment/album/201503/10/151629ofe4ph11tuhh7qtq.jpg) ### syslog标准基础 当通过syslog机制来收集日志时,有3个必须要考虑到的重要事情: * **设施层级**: 监听何种类型的进程 * **严重性 (优先) 级别**: 收集何种级别的日志消息 * **目标**: 发送或记录日志消息到何处 现在我们更加深入地了解一下配置是如何定义的。 设施层级定义了一种用来对内部系统进程进行分类的方法,linux中的一些常见的设施包括: * **auth**: 身份验证相关的消息(登录时) * **cron**: 进程或应用调度相关的消息 * **daemon**: 守护进程相关的消息(内部服务器) * **kernel**: 内核相关的消息 * **mail**: 内部邮件服务器相关的消息 * **syslog**: syslog 守护进程本身相关的消息 * **lpr**: 打印服务相关的消息 * **local0 - local7**: 用户自定义的消息 (local7 通常被Cisco 和 Windows 服务器 使用) 严重性(优先)级别有固定的标准缩写和指代的值,其中的数字7具有最高的级别,这些级别包含了: * emerg: Emergency(紧急)- 0 * alert: Alerts (报警)- 1 * crit: Critical (关键)- 2 * err: Errors (错误)- 3 * warn: Warnings (警告)- 4 * notice: Notification (通知)- 5 * info: Information (消息)- 6 * debug: Debugging (调试)- 7 最后,目标语句会让一个syslog客户端来执行以下三个任务之一: 1. 保存日志消息到一个本地文件; 2. 通过TCP/UDP将消息路由到远程的syslog服务器中; 3. 将其发送到一个标准输出中,例如控制台。 在 rsyslog里, syslog的配置是基于以下模式进行结构化的。 ``` [facility-level].[severity-level] [destination] ``` ### 在Linux中配置Rsyslog 在我们理解syslog之后,现在可以通过rsyslog来将一个Linux服务器配置为一个中心syslog服务器了,另外我们也将看到如何在一个Windows的系统上配置一个syslog客户端来发送内部日志到该syslog服务器中。 ### 第1步: 初始化系统需求 要将linux主机设置为一个中央日志服务器, 我们需要创建一个分离的 /var 分区,并分配足够大的磁盘空间或者创建一个特殊的LVM卷组。这样就会使得syslog服务器能够承担在日积月累收集日志所带来的潜在增长。 ### 第2步: 让rsyslog 后台进程生效 rsyslog守护进程来自于当前的linux发布版本的预装模块,但是默认并没有启动。为了能够让rsyslog守护进程能够接受外部的消息,需要编辑其配置文件/etc/rsyslog.conf. 打开文件进行编辑,查找到下面的两行所在的位置,通过删除其行首的#字符来取消注释。 ``` $ModLoad imudp $UDPServerRun 514 ``` 这会使得rsysolog守护进程能够在UDP端口514上接受日志消息了---UDP是一种比TCP速度快,但是并不具有TCP一样的数据流的可靠性。所以如果你需要使用可靠的传送机制,就可以通过取消以下行的注释。 ``` $ModLoad imtcp $InputTCPServerRun 514 ``` 需要注意的是,TCP和UDP可以被同时生效来监听TCP/UDP 连接。 ### 第3步:创建日志接收模板 接下来的这步,需要我们来为远程消息创建模板,并告知rsyslog守护进程如何记录从其他客户端机器所接受到的消息。 使用文本编辑器来打开 /etc/rsyslog.conf,然后在GLOBAL DIRECTIVE块前追加以下的模板。 ``` $template RemoteLogs,"/var/log/%HOSTNAME%/%PROGRAMNAME%.log" * *.* ?RemoteLogs & ~ ``` 在此对该模板进行简单解释,$template RemoteLogs(这里“RemoteLogs” 字符串可以为任何其他的描述性的名称)指令使rsyslog后台进程将日志消息写到/var/log下的单独的本地日志文件中,其中日志文件的名称是基于远程日志发送机器的主机名以及生成该日志的应用程序名进行定义的。其中第二行暗示了我们将RemoteLogs模板应用到所有接收到的日志上。 符号"& ~"表示了一个重定向规则,被用来告知rsyslog守护进程停止对日志消息的进一步处理,并且不要在本地写入。如果没有使用该重定向规则,那么所有的远程消息都会在写入上述描述的日志文件之外同时被写入到本地日志文件,这就意味着日志消息实际上被写了两次。使用该规则的另外一个结果就是syslog服务器本身的日志消息只会被以该机器主机名命名的专有文件中。 如果你想要的话,也可以使用下面的模式对特定的设备或严重性级别使用新的模板直接来记录日志消息。 ``` [facility-level].[severity-level] ?RemoteLogs ``` 例如: 将全部优先级别的所有内部用户验证消息指定为RemoteLogs模板: ``` authpriv.* ?RemoteLogs ``` 将所有系统进程中除开mail、用户验证和cron消息之外的进程产生的消息级别的日志指定为RemoteLogs模板: ``` *.info,mail.none,authpriv.none,cron.none ?RemoteLogs ``` 如果我们想要将所有从远程客户端接受到的消息写入到一个以它们的IP地址命名的单个文件中,可以使用以下的模板。在此我们为该模板赋予了“IpTemplate”名称。 ``` $template IpTemplate,"/var/log/%FROMHOST-IP%.log" *.* ?IpTemplate & ~ ``` 在我们启用rsyslog守护进程并编辑好配置文件之后,需要重启该守护进程。 在 Debian,Ubuntu 或 CentOS/RHEL 6中: ``` $ sudo service rsyslog restart ``` 在 Fedora 或 CentOS/RHEL 7中: ``` $ sudo systemctl restart rsyslog ``` 我们可以通过netstat命令来验证rsyslog守护进程是否正常工作。 ``` $ sudo netstat -tulpn | grep rsyslog ``` 在UDP监听端口下工作的rsyslog守护进程会有类似下面的输出。 ``` udp 0 0 0.0.0.0:514 0.0.0.0:* 551/rsyslogd udp6 0 0 :::514 :::* 551/rsyslogd ``` 如果rsyslog守护进程被设置在TCP连接端口,那么应该有类似下面所示的输出。 ``` tcp 0 0 0.0.0.0:514 0.0.0.0:* LISTEN 1891/rsyslogd tcp6 0 0 :::514 :::* LISTEN 1891/rsyslogd ``` ### 发送Windows日志到一个远程的rsyslog服务器 要将一个Windows客户端的日志消息转发到我们的rsyslog服务器,需要一个安装 Windows syslog 代理。当然,有许多的syslog代理可以在windows上运行,在此我们可以使用一个自由软件程序 [Datagram SyslogAgent](http://www.syslogserver.com/download.html). 在下载安装该syslog代理后,需要将其配置为作为服务运行。指定使用何种协议来发送数据,以及远程rsyslog服务器的IP地址和端口,最后指定应该传输的事件日志类型,如下所示。 ![](/data/attachment/album/201503/10/152619c9quswiege5e3sk7.jpg) 在我们完成所有的这些配置之后,我们就可以启动该服务并且在中央rsyslog服务器中使用命令行工具tail -f来查看日志文件了。 ### 总结 通过创建一个可以收集本地和远程主机的中央rsyslog服务器,我们可以更好地了解在这些系统内部究竟发生着什么,而且可以更加容易地调试它们的问题,是否在它们之间有任何延迟或崩溃存在。 --- via: <http://xmodulo.com/configure-syslog-server-linux.html> 作者:[Caezsar M](http://xmodulo.com/author/caezsar) 译者:[theo-l](https://github.com/theo-l) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,025
让你玩转 Ubuntu 桌面的十一件武器
http://www.omgubuntu.co.uk/2014/11/useful-tools-for-ubuntu-do-you-use-them
2015-03-11T09:00:00
[ "Ubuntu", "桌面", "优化" ]
https://linux.cn/article-5025-1.html
**无论你是一个相对的新手还是经验丰富的专家,我们都想从我们的操作系统中得到更多的东西。正如大多数现代的操作系统,相比于乍一看呈现出的内容,Ubuntu 还有更多东西可以向我们提供。** 从调整和优化 Unity 桌面的外观、行为、性能到执行系统维护,这里有大量的实用工具和应用可以帮助你**调整 Ubuntu ,随时满足你的需求**。 注意: Ubuntu 总是配备了‘合理的默认设置’(即工作良好的选项),以达到开箱即用,这些默认设置适合大多数人,并且它们都是经过了测试、采用及推荐等过程的。 但一个尺码并不适合所有人。对于我们当中的能工巧匠和实验主义者来说,默认设置只是他们定制系统的起点。 所以,无需更多的唠叨, 这里有 11 个极好的实用工具可以帮助你增强 Ubuntu 使用体验。 ### Unity Tweak Tool ![](/data/attachment/album/201503/11/004329h9lncxutj7s98l66.jpg) 我将以这个列表中最重要的一个工具: **Unity Tweak Tool** 来开始这次的介绍。融汇了各种定制选项,Unity Tweak Tool 提供了一系列针对 Ubuntu 和 Unity 桌面的系统综合调整功能。 它被各种开关、切换和控制器塞得满满的,使得你可以任意设置从 Unity 桌面的外观到 Unity 的行为之类的任何东西。你可以使用它**快速简便地改变 GTK 主题和图标集**、设置热区、调整启动器图标尺寸、增加或移除工作区,以及 ---特别地---开启 Unity 桌面中被巧妙隐藏的“通过点击最小化”的功能。 它是免费的,可直接从 Ubuntu 软件中心里找到, Unity Tweak Tool 是非常值得保留在你的口袋里的工具之一。 ### Unity 隐私指示器 ![](/data/attachment/album/201503/11/004331vjf9qq1vv3jq7913.jpg) 隐私是一个非常、非常重要的事,事实也恰恰如此,但这个话题要比二进制还难以说明白。让一些数据或习惯,比如说你经常打开的应用,在本地被记录下来,这或许会让你感到高兴,但对于你在 Dash 中的搜索数据被发送到第三方服务机构(尽管这些数据或许是匿名的)这类事情,你就高兴不起来了。 [隐私指示器](http://www.florian-diesch.de/software/indicator-privacy/index.html) 是一个帮助你时刻跟踪 Ubuntu桌面系统中有哪些文件、目录和服务正被获取、记录及搜索的实用工具。 通过快速的点击被添加到桌面面板上的‘眼睛’图标,你可以: * 开启或关闭在线搜索结果,使用 Zeitgeist 记录系统活动,存储 HUD 使用记录和启用 Ubuntu GeoIP 服务 * 快速清理 Zeitgeist 日志、 ALT-F2 历史、最近访问文件等等的记录数据 * 展示或隐藏桌面图标及面板上显示的用户名 上述的最后一条的功能似乎不应该出现在这个应用程序中,但对于那些要分享截图或截屏的人来说,这将会泄露更少的隐私。 * [从这里下载隐私指示器 (.deb)](http://www.florian-diesch.de/software/indicator-privacy/dist/indicator-privacy_0.04-1_all.deb) ### Unity 橱窗 ![](/data/attachment/album/201503/11/004337qh83z5gv3pwq7s8h.jpg) **Android, iOS, OS X, Chrome OS, 和 GNOME Shell 都有应用橱窗, 借助一个极好的第三方应用,Unity 也可以实现类似功能。** “Unity 橱窗” 允许你将 Unity 启动器中的应用分组到实用的橱窗中,--- 如游戏,办公,社交等。不必打开 Dash,你就可以快速启动你喜爱的应用,这非常适合你的工作流。 每一个 ‘橱窗’其实上是一个打开在图标附近的应用窗口,但总体效果看上去就像是一个 OS X 风格的“堆栈”或 Android 的分组框。 橱窗的图标可以自定义或根据橱窗内的应用来自动生成。已有的橱窗可以修改和重新组织、重命名以及如下的更多选择: * 根据你的喜好创建任意多的橱窗 * 选择自定义或自动生成橱窗图标 * 可选择 3 种橱窗样式 * 为添加到橱窗中的应用设定自定义图标 * 编辑现有橱窗 [Unity 橱窗的网址](http://unity-folders.exceptionfound.com/) ### 咖啡因(Caffeine) 对于我们中的许多人来说,咖啡因是必需品,而不仅仅是饮料。而这里的“咖啡因”则提供了一个快速,温和的方式来避免屏保/锁屏占据屏幕。它的有用程度将取决于你的环境(即你系统的怪癖),并且尽管它不像以前那样好用,它仍然值得你[尝试一下](http://www.omgubuntu.co.uk/2014/05/stop-ubuntu-sleeping-caffeine)。 [下载咖啡因(Caffeine)](https://launchpad.net/%7Ecaffeine-developers/+archive/ppa/+files/caffeine_2.7_all.deb) ### 系统监控指示器 ![](/data/attachment/album/201503/11/004338tii8ix884b8tz81r.jpg) 假如你是一个状态迷,即一个喜欢密切关注程序,进程和硬件的状态的人, Linux 很容易满足你的需求。从 Conky 的配置到终端命令,并不缺少监视你的 CPU 使用情况、网络流量或 GPU 温度的方法。 但至今为止,我最喜爱的应用是**系统监控指示器**(也被叫做多负载指示器),它可从 Ubuntu 软件中心获得。它也有着大量的配置选项。 * [点击这个链接,在 Ubuntu 中下载 ‘系统监控指示器’](apt://indicator-mulitload) ### 针对 Linux 笔记本电脑的省电工具 ![](/data/attachment/album/201503/11/004339r5tvyyli0enujnty.jpg) #### TLP 当提到便携式设备上的电池使用效率时,Linux 发行版的声誉并不算好。 如果你的 Linux 笔记本在重新充电前,电池只够让你从沙发走到厨房的话,那么这里有几个你可以试试的工具。 TLP 是最受欢迎的确保延长 Linux 笔记本的电池寿命的自动化后台工具之一,它是通过调整系统进程和硬件的设置及行为来达成省电的,例如 启动 Wi-Fi 省电模式, PCI 总线设备的实时电量管理和处理器的降频调整。 在 Ubuntu 14.04 LTS 以及后续发行版本中可以[使用 TLP 专用的 PPA 来安装它](https://launchpad.net/%7Elinrunner/+archive/ubuntu/tlp/+packages),通过它的‘一下搞定’的设置就能用起来。在我们之中的高级用户可以潜心研究并根据你自己的硬件来调整设置,一个[关于 TLP 的完整指导 wiki](http://linrunner.de/en/tlp/docs/tlp-configuration.html) 使得设置更加容易。 #### Laptop Mode Tools 假如 TLP 听起来有一点复杂,这也并没有什么可羞耻的,这里有一个更简单的替代品: **Laptop Mode Tools**。 这个软件包可从 Ubuntu 软件中心直接安装,且本身设置好了一系列合理的默认设置(Wi-Fi,蓝牙等等)。 切记,Laptop Mode Tools 不能和 TLP 同时被安装在电脑中。 * [Ubuntu 软件中心里的 Laptop Mode Tools](https://apps.ubuntu.com/cat/applications/laptop-mode-tools/) ### Intel 显卡驱动安装工具 ![](/data/attachment/album/201503/11/004340x03qzr5r0cpo3ddb.png) 对于那些运行 Intel 显卡硬件,并想使得这些硬件发挥出最佳性能的人来说,Intel 显卡安装工具是必须拥有的。 它使得查找并安装最新的 Intel GPU 驱动变得不再是一件痛苦和大费周折的事,因为这无需 PPA 或任何的终端使用知识。 * [下载针对 Linux平台的 Intel 显卡驱动安装器 0.7 版本](https://01.org/linuxgraphics/downloads/2014/intelr-graphics-installer-linux-1.0.7) ### 硬件信息 ![](/data/attachment/album/201503/11/004342ux0qm9a244szxjqx.png) 假如你计划升级你的 PC 或想替换一个坏掉的零部件,你需要知道一些特定的硬件信息,例如 RAM 类型,CPU插座类型 或查看哪个 PCI 槽是可用的等信息。 **I-Nex**可以使得找出这些以及其他的系统具体配置变得更加容易。使用它来查找你的主板型号、S.M.A.R.T.(注:为 Self-Monitoring, Analysis and Reporting Technology 的缩写,经常写为 SMART ) 状态,以及你想的出的很多东西! * [可从 Launchpad 了解到更多关于 I-Nex 的信息](https://launchpad.net/i-nex) ### 磁盘空间可视化程序 ![](/data/attachment/album/201503/11/004343whhai9rxqxh5hrah.jpg) 在这个硬盘以 TB 计数的时代,我们或许不必同以前一样对硬盘空间的使用三思而后行。但对于那些使用小容量的 SSD,分成多个分区或在一个拥有固定大小的虚拟磁盘的虚拟机上工作的人来说,总有“应该释放一些额外空间是必要的”这种想法的时候。 GNOME Disks,在 Ubuntu 中被默认安装,使得查找占用最大磁盘空间的罪魁祸首变得容易。对于定位隐藏的日志、缓存和视频文件,它是非常完美的工具。 ### BleachBit (Cruft Cleaner) ![](/data/attachment/album/201503/11/004344vbyyaa4w8582lpn4.jpg) Windows 用户可能对像 CCleaner 之类的应用很熟悉,它可以扫描并清理垃圾文件、空白文件夹、臃肿的缓存以及陈旧的软件包。在 Ubuntu 上,一个相似的快速且毫不费力的一键式清理方法可以试试 **BleachBit** 。 它是一个强大的工具,所以一定要注意你正在清理什么。不要漫无目的地确认每个选项框;不是所有的东西它都可以清理。所以请合理地使用它,当你对某个选项有疑问时,就跳过它。 * [从 Ubuntu 软件中心里安装 BleachBit](https://apps.ubuntu.com/cat/applications/bleachbit/) 你已经有了自己最喜欢的系统实用工具了吗?可以在下面的评论中让其他人知晓它。 --- via: <http://www.omgubuntu.co.uk/2014/11/useful-tools-for-ubuntu-do-you-use-them> 作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,033
Linux 内核开发社区引入了“冲突准则”
https://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/commit/?id=b0bc65729070b9cbdbb53ff042984a3c545a0e34
2015-03-11T22:40:00
[ "Linux", "内核", "评审" ]
https://linux.cn/article-5033-1.html
![](/data/attachment/album/201503/11/224027ogybabwbkxboz9ah.jpg) 以在开源界粗鲁而闻名的 Linux 创始人 Linus Torvalds 在最新的内核4.0-rc3中接受合并了一个[“冲突准则(code of conflict)](https://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/commit/?id=b0bc65729070b9cbdbb53ff042984a3c545a0e34)”文档。这一篇 Greg KH 写的文字,旨在限制代码评审过程中的语言暴力现象。 ``` [冲突准则](https://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/tree/Documentation/CodeOfConflict?id=b0bc65729070b9cbdbb53ff042984a3c545a0e34) ---------------- 与“传统”的软件开发方式相比,Linux 内核的开发是相当个人化的。 你的代码及其背后的想法会被仔细评审,而这往往导致了别人的评点和 批评。评审总是可以让代码在进入内核前得到改进。我们这样认为,是 因为我们知道每个人都希望为了 Linux 的全面成功而尽力做到最好。 这一开发过程已经被我们所创建的迄今为止最强大的操作系统而证实, 我们并不希望做任何可能导致提交质量降低和整体品质劣化的事情。 但是,如果任何人在这一过程中觉得受到了侮辱、歧视或其它不舒服的 感觉,那就是不可接受的。如果发生了这些事情,请联系 Linux 基金 会的技术委员会 (tab@lists.linux-foundation.org)或其成 员,他们会尽最大的努力解决这个问题。关于技术委员会及其职责,请 参看: http://www.linuxfoundation.org/programs/advisory-councils/tab 作为代码评审者,请您保持文明并将关注点放在技术问题上。对于我们 所有人来说,评审过程的最终结果于双方都有提升。请牢记 Bill 和 Ted 的名言"Be excellent to each other." ``` Linus 对此准则的提出评价说,“让我们看看它是否有效果。” 也让我们拭目以待,看看是否内核开发社区能从此变得文雅一些?
301
Moved Permanently
null
5,043
9款最好的 Javacript 用户的 IDE 和代码编辑器
http://devzum.com/2015/01/31/9-best-ides-and-code-editors-for-javascript-users/
2015-03-12T14:47:00
[ "Javascript", "编辑器", "IDE" ]
https://linux.cn/article-5043-1.html
网络应用设计和开发是最近一段时间的发展趋势,也有越来越多的人开始在此寻找他们的职业机会。但是,作为网络开发人员或图形设计人员来说,一个好的机会并不是每个人都能够轻易获得到的,它需要很好的思维展现,以及对于工作的熟练技巧。现在有许多可用的网站来根据你的知识帮助你找到正确的职位描述。但是如果你想要在这个领域有所成就,你仍然需要具有一些出色的技能,例如可以在不同的平台、IDE以及其他的工具上开展工作。 说到根据不同目的和不同语言所用到的不同平台以及IDE,只靠学习一个IDE来轻松获取项目设计最佳方案的惯例已经属于过去时了。今天我们活在一个竞争日益激烈的现代生活节奏中,对于IDE们也是相同的处境,IDE是一个用来创建和部署应用的强大的客户端应用。今天我们打算为网络设计者和开发人员分享一些最好的Javacript IDE。 请访问这个 javascript 用户最好的代码编辑器列表,并将你的想法与我们一起分享。 ### 1) [Spket](http://spket.com/) **Spket IDE** 是 JavaScript 和 XML 开发的强大工具包。这个功能强大的编辑器可以用来进行开发 JavaScript,XUL/XBL 和 Yahoo!小组件。JavaScript 编辑器提供了例如代码补全、语法高亮以及代码内容大纲等特性,可以帮助开发者提高创建高效 JavaScript 代码的生产率。 ![](/data/attachment/album/201503/12/145737zhhh9o1zh8x14xx4.png) ### 2) [Ixedit](http://www.ixedit.com/) IxEdit 是一个基于 Javascript 交互的网络设计工具。通过 IxEdit,设计者可以在不需要通过代码改变,添加,删除或变换页面元素的情况下,在网页上进行动态进行 DOM 脚本编写。 ![](/data/attachment/album/201503/12/145759prudutdortuutdz8.png) ### 3) [Komodo Edit](http://komodoide.com/komodo-edit/) Komodo是一款免费而强大的编辑器,可以用来编辑JavaScript和其他的编程语言。 ![](/data/attachment/album/201503/12/145813nl4clvfsrss9l4hl.png) ### 4) [EpicEditor](http://oscargodson.github.io/EpicEditor/) EpicEditor是一个可嵌入的 JavaScript Markdown 编辑器,具有分割全屏进行编辑,实时预览,自动草稿保存,离线支持等特性。对于开发人员,它提供了健壮的API,可以容易地设置主题,并允许你以任何其他的事物来替换绑定的 Markdown 解析器。 ![](/data/attachment/album/201503/12/145822b2z4zy7qt5l5wlxw.png) ### 5) [codepress](http://codepress.sourceforge.net/) CodePress是一个基于网络的源代码编辑器,它用 JavaScript 编写,具有语法高亮,并且是在你将代码输入到浏览器后实时进行文本颜色渲染。 ![](/data/attachment/album/201503/12/145832q223vz3r4n24zv4v.png) ### 6) [ACe](http://ace.c9.io/#nav=about) Ace 是一个使用JavaScript编写的嵌入式代码编辑器,它能够匹配宿主编辑器的特性和性能,例如Sublime,Vim和Textate。它能够容易地嵌入到任何的网页和JavaScript应用中。 ![](/data/attachment/album/201503/12/145841a5a7ldsf5njo3lai.png) ### 7) [scripted](https://github.com/scripted-editor/scripted) Scripted是一个快速的轻量级代码编辑器,最初是为了JavaScript编写实现的。 Scripted是一个基于浏览器的编辑器,而编辑器本身有本地运行的Node.js服务器实例来提供服务支持。 ![](/data/attachment/album/201503/12/145851vl33mel6qqqbj5lu.png) ### 8) [Netbeans](https://netbeans.org/) 这是另外的一个更加震撼而且有用的编辑器,可以用来编写javascript和其他的编程语言。 ![](/data/attachment/album/201503/12/145901n879l9wzp4nlz7dr.png) ### 9) [Webstorm](http://www.jetbrains.com/webstorm/) 这是最智能的JavaScript IDE。 它是为使用Node.js进行复杂的客户端开发和服务器端开发而装备的一个轻巧而强大的完美IDE。 ![](/data/attachment/album/201503/12/145910v1rtsts11b6t7gb7.png) --- via: <http://devzum.com/2015/01/31/9-best-ides-and-code-editors-for-javascript-users/> 作者:[vikas](http://devzum.com/author/vikas/) 译者:[theo-l](https://github.com/theo-l) 校对:[Caroline](https://github.com/carolinewuyan) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,044
在Linux上使用Python和Flask创建你的第一个应用
http://techarena51.com/index.php/how-to-install-python-3-and-flask-on-linux/
2015-03-12T15:37:00
[ "flask", "python" ]
https://linux.cn/article-5044-1.html
![](/data/attachment/album/201503/12/153736di7plh4hd2pk2p2l.png) 无论你在linux上娱乐还是工作,这对你而言都是一个使用python来编程的很好的机会。回到大学我希望他们教我的是Python而不是Java,这学起来很有趣且在实际的应用如yum包管理器中很有用。 本篇教程中我会带你使用python和一个称为flask的微型框架来构建一个简单的应用,来显示诸如[每个进程的内存使用](http://techarena51.com/index.php/linux-memory-usage/),CPU百分比之类有用的信息。 ### 前置需求 Python基础、列表、类、函数、模块。HTML/CSS (基础)。 学习这篇教程你不必是一个python高级开发者,但是首先我建议你阅读 <https://wiki.python.org/moin/BeginnersGuide/NonProgrammers> 。 ### 在Linux上安装Python 3 在大多数Linux发行版上Python是默认安装的。下面的你命令可以让你看到安装的版本。 ``` [root@linux-vps ~]# python -V Python 2.7.5 ``` 我们会使用3.x的版本来构建我们的app。根据[Python.org](https://wiki.python.org/moin/Python2orPython3)所说,现在只对这个版本进行改进,而且不向后兼容Python 2。 **注意**: 在开始之前,我强烈建议你在虚拟机中尝试这个教程,因为Python是许多Linux发行版的核心组件,任何意外都可能会损坏你的系统。 以下步骤是基于红帽的版本如CentOS(6和7),基于Debian的版本如UbuntuMint和Resbian可以跳过这步,Pythonn 3应该默认已经安装了。如果没有安装,请用apt-get而不是yum来安装下面相应的包。 ``` [leo@linux-vps] yum groupinstall 'Development Tools' [leo@linux-vps] yum install -y zlib-dev openssl-devel sqlite-devel bzip2-devel [leo@linux-vps] wget https://www.python.org/ftp/python/3.4.2/Python-3.4.2.tgz [leo@linux-vps] tar -xvzf Python-3.4.2.tgz [leo@linux-vps] cd Python-3.4.2 [leo@linux-vps] ./configure [leo@linux-vps] make # 推荐使用 make altinstall 以覆盖当前的 python 库 [leo@linux-vps] make altinstall ``` 成功安装后,你应该可以用下面的命令进入Python3.4的shell了。 ``` [leo@linux-vps]# python3.4 Python 3.4.2 (default, Dec 12 2014, 08:01:15) [GCC 4.8.2 20140120 (Red Hat 4.8.2-16)] on linux Type "help", "copyright", "credits" or "license" for more information. >>> exit () ``` ### 使用pip来安装包 Python有它自己的包管理去,与yum和apt-get相似。你将需要它来下载、安装和卸载包。 ``` [leo@linux-vps] pip3.4 install "packagename" [leo@linux-vps] pip3.4 list [leo@linux-vps] pip3.4 uninstall "packagename" ``` ### Python虚拟环境 在Python中虚拟环境是一个放置你的项目的依赖环境的目录。这是一个将带有不同的依赖环境的项目隔离的好办法。它可以让你不用sudo命令就能安装包。 ``` [leo@linux-vps] mkdir python3.4-flask [leo@linux-vps] cd python3.4-flask [leo@linux-vps python3.4-flask] pyvenv-3.4 venv ``` 要创建虚拟环境你需要使用“pyvenv-3.4”命令。上述命令会在venv文件夹的内部创建一个名为lib的目录,这里会安装项目所依赖的包。这里同样会创建一个bin文件夹容纳该环境下的pip和python可执行文件。 ### 为我们的Linux系统信息项目激活虚拟环境 ``` [leo@linux-vps python3.4-flask] source venv/bin/activate [leo@linux-vps python3.4-flask] which pip3.4 ~/python3.4-flask/venv/bin/pip3.4 [leo@linux-vps python3.4-flask] which python3.4 ~/python3.4-flask/venv/bin/python3.4 ``` ### 使用pip安装flask 让我们继续安装第一个模块flask框架,它可以处理访问路由和渲染显示我们app的模板。 ``` [leo@linux-vps python3.4-flask]pip3.4 install flask ``` ### 在flask中创建第一个应用 #### 第一步:创建你app的目录 ``` [leo@linux-vps python3.4-flask] mkdir app [leo@linux-vps python3.4-flask] mkdir app/static [leo@linux-vps python3.4-flask] mkdir app/templates ``` 在python3.4-flask文件夹中创建一个名为app的文件夹,它包含了两个子文件夹“static”和“templates”。我们的Python脚本会放在app文件夹,像css/js这类文件会在static文件夹,template文件夹会包含我们的html模板。 #### 第二步:在app文件夹内部创建一个初始化文件 ``` [leo@linux-vps python3.4-flask] vim app/_init_.py from flask import Flask app = Flask(__name__) from app import index ``` 这个文件会创建一个Flask的新的实例,并加载我们存储在index.py文件中的python程序——这个文件我们之后会创建。 ``` [leo@linux-vps python3.4-flask]vim app/index.py from app import app @app.route('/') def index(): import subprocess cmd = subprocess.Popen(['ps_mem'],stdout=subprocess.PIPE,stderr=subprocess.PIPE) out,error = cmd.communicate() memory = out.splitlines() return ``` flask中的访问路由通过“路由装饰器”处理。它用于将一个 URL 绑定到函数。 ``` @app.route('/') @app.route('/index') ``` 要在python中运行shell命令,你可以使用Subprocess模块中的Popen类。 ``` subprocess.Popen(['ps_mem'],stdout=subprocess.PIPE,stderr=subprocess.PIPE) ``` 这个类会使用一个列表作为参数,列表的第一项默认是可执行的程序,下一项会是参数,这里是个另外一个例子。 ``` subprocess.Popen(['ls', ‘-l’],stdout=subprocess.PIPE,stderr=subprocess.PIPE) ``` stdout和stderr会相应地存储命令的输出和错误。你可以使用Popen的communicate方法来访问输出。 ``` out,error = cmd.communicate() ``` 要更好地用html模板显示输出,我会使用splitlines()方法, ``` memory = out.splitlines() ``` 关于subprocess模块更多的信息会在教程的最后给出。 #### 第三步:创建一个html模板来显示我们命令的输出。 要做到这个我们使用flask中的Jinja2模板引擎来为我们渲染。 最后你的index.py文件应该看起来像这样: ``` from flask import render_template from app import app def index(): import subprocess cmd = subprocess.Popen(['ps_mem'],stdout=subprocess.PIPE,stderr=subprocess.PIPE) out,error = cmd.communicate() memory = out.splitlines() return render_template('index.html', memory=memory) ``` 现在在你的模板目录下创建一个index.html模板,flask会自动搜索这个目录下的模板。 ``` [leo@linux-vps python3.4-flask]vim app/templates/index.html Memory usage per process {% for line in memory %} {{ line.decode('utf-8') }} {% endfor %} ``` Jinja2模板引擎允许你使用“{{ … }}”分隔符来输出结果,{% … %}来做循环和赋值。我使用“decode()”方法来格式化。 #### 第四步:运行app ``` [leo@linux-vps python3.4-flask]vim run.py from app import app app.debug = True app.run(host='174.140.165.231', port=80) ``` 上面的代码会在debug模式下运行app。如果你不指定 IP 地址和端口,默认则是localhost:5000。 ``` [leo@linux-vps python3.4-flask] chmod +x run.py [leo@linux-vps python3.4-flask] python3.4 run.py ``` ![](/data/attachment/album/201503/12/153736h272ssscshm2s3u7.png) 我已经加了更多的代码来显示CPU、I/O和平均负载。 ![](/data/attachment/album/201503/12/153738a8r32rrx8i2u2ugx.png) 你可以在[这里](https://github.com/Leo-g/python-flask-cmd)浏览完整的代码。 这是一个对flask的简短教程,我建议你阅读下面的教程和文档来更深入地了解。 <http://flask.pocoo.org/docs/0.10/quickstart/> <https://docs.python.org/3.4/library/subprocess.html#popen-constructor> <http://blog.miguelgrinberg.com/post/the-flask-mega-tutorial-part-i-hello-world> --- via: <http://techarena51.com/index.php/how-to-install-python-3-and-flask-on-linux/> 作者:[Leo G](http://techarena51.com/) 译者:[geekpi](https://github.com/gekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
302
Moved Temporarily
null
5,045
新面孔、新功能的 Tomahawk 音乐播放器
http://www.omgubuntu.co.uk/2014/11/tomahawk-media-player-returns-new-look-features
2015-03-12T15:48:00
[ "流媒体", "音乐播放器", "Tomahawk" ]
https://linux.cn/article-5045-1.html
**在悄无声息得过了一年之后,Tomahawk——音乐播放器中的瑞士军刀——带着值得歌颂的全新发行版回归了。** ![](/data/attachment/album/201503/12/154843fxi2ayeq2zsteim5.jpg) 这个0.8版的开源跨平台应用增添了**更多在线服务的支持**,更新了它的外观,又一次确保了它创新的社交功能完美运行。 ### Tomahawk——两个世界的极品 Tomahawk 将一个传统的应用结构与我们的“即时”现代文化相结合。它可以浏览和播放本地的音乐和Spotify、Grooveshark以及SoundCloud这类的线上音乐。在最新的发行版中,它把Google Play Music和Beats Music列入了它的名册。 这可能听着很繁复或令人困惑,但实际上它表现得出奇的好。 若你想要播放一首歌,而且不介意它是从哪里来的,你只需告诉Tomahawk这个音乐的标题和作者,它就会自动从可获取的源里找出高品质版本的音乐——你不需要做任何事。 ![](/data/attachment/album/201503/12/154847wcg99jrhreexpc99.jpg) 这个应用还弄了一些附加的功能,比如EchoNest剖析,Last.fm建议,还有对Jabber的支持,这样你就能“播放”朋友的音乐。它还有一个内置的信息服务,以便于你能和其他人快速的分享播放列表和音乐。 > > “这种从根本上就与众不同的听音乐的方式,开启了前所未有的音乐的消费和分享体验”,该项目的网站上这样写道。而且即便它如此独特,这也没有错。 > > > ![Tomahawk supports the Sound Menu](/data/attachment/album/201503/12/154849z88mrv8v4yvsxmyz.jpg) *支持声音菜单* ### Tomahawk0.8发行版的亮点 * 新的交互界面 * 对Beats Music的支持 * 对Google Play Music的支持(保存的和播放全部链接) * 支持拖拽iTunes,Spotify这类网站的链接 * 正在播放的提示 * Android应用(测试版) * 收件箱的改进 ### 在Ubuntu上安装Tomahawk0.8 作为一个流媒体音乐的粉丝,我会在接下来的几天里体验一下这个应用软件,然后提供一个关于他的改变的更全面的赏析。与此同时,你也可以尝尝鲜。 在Ubuntu 14.04 LTS和Ubuntu 14.10上可以通过官方PPA获得Tomahawk。 ``` sudo add-apt-repository ppa:tomahawk/ppa sudo apt-get update && sudo apt-get install tomahawk ``` 在官方项目网站上可以找的独立安装程序和更详细的信息。 * [访问 Tomahawk 官网](http://gettomahawk.com/) --- via: <http://www.omgubuntu.co.uk/2014/11/tomahawk-media-player-returns-new-look-features> 作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[H-mudcup](https://github.com/H-mudcup) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,046
MultiWriter:同时将 ISO 镜像并发写入 20 个 USB 启动盘
http://www.omgubuntu.co.uk/2015/01/gnome-multiwriter-iso-usb-utility
2015-03-13T10:07:00
[ "ISO", "USB", "MultiWriter" ]
https://linux.cn/article-5046-1.html
**我的问题是如何把一个Linux ISO 文件烧录到 17 个 USB 启动盘?** 精通代码的人会写一个 bash 脚本来自动化处理,而大部分的人会使用像 USB 启动盘创建器这样的图形用户界面工具来把 ISO 文件一个、一个的烧录到驱动盘中。但剩下的还有一些人也许会很快得出结论,两种方法都不太理想。 ### 问题 > 解决 ![GNOME MultiWriter in action](/data/attachment/album/201503/12/160848jh44ryurrzr32gzt.jpg) *GNOME MultiWriter 在运行当中* Richard Hughes,一个 GNOME 开发者,也面临着类似的困境。他要创建一批预装操作系统的 USB 启动盘,需要一个足够简单的工具,使得像他父亲这样的用户也能使用。 他的反应是开发**品牌性的新应用程序**,使上面的两种方法合二为一,创造出易用的一款工具。 它的名字就叫 “[GNOME MultiWriter](https://github.com/GNOME/gnome-multi-writer)”,可以同时把单个的 ISO 或 IMG 文件写入多个 USB 驱动盘。 它不支持个性化自定义或命令行执行的功能,使用它就可以省掉浪费一下午的时间来对相同的操作的重复动作。 您需要的就是这一款应用程序、一个 ISO 镜像文件、一些拇指驱动盘以用许多空 USB 接口。 ### 用例和安装 ![The app can be installed on Ubuntu](/data/attachment/album/201503/12/160849kfr12e72drrdn2d5.jpg) *该应用程序可以在 Ubuntu 上安装* 这款应用程序的定义使用场景很不错,正适合使用于预装正要发布的操作系统或 live 映像的 USB 启动盘上。 那就是说,任何人想要创建一个单独可启动的 USB 启动盘的话,也是一样的适用 - 因我用 Ubuntu 的内置磁盘创建工具来创建可引导的映像从来没有一次成功过的,所以这方案对我来说是个好消息! 它的开发者 Hughes 说它**最高能支持20个 USB 启动盘**,每个盘的大小在 1GB 到 32GB之间。 GNOME MultiWriter 也有不好的地方(到现在为止)就是它还没有一个完结、稳定的成品。它是能工作,但在早期的时候,还没有可安装的二进制版本或可添加到你庞大软件源的 PPA(LCTT 译注:在作者的个人网站上有[编译好的 RPM 包](http://people.freedesktop.org/~hughsient/fedora/21/x86_64/gnome-multi-writer-3.15.5-0.41.20150204git.fc21.x86_64.rpm))。 如果您知道通常的 configure/make 的操作流程的话,可以获取其源码并随时都可以编译运行。在 Ubuntu14.10 系统上,你可能还需要首先安装以下软件包: ``` sudo apt-get install gnome-common yelp-tools libcanberra-gtk3-dev libudisks2-dev gobject-introspection ``` 如果您可以运行起来,已经玩转的话,给我们分享下您的感受! * 源代码地址(<https://github.com/GNOME/gnome-multi-writer>) --- via: <http://www.omgubuntu.co.uk/2015/01/gnome-multiwriter-iso-usb-utility> 作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[runningwater](https://github.com/runningwater) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,047
五个 Linux 下用户空间的调试工具
http://linoxide.com/linux-how-to/user-space-debugging-tools-linux/
2015-03-13T10:37:00
[ "调试", "strace", "ltrace", "valgrind", "gdb" ]
/article-5047-1.html
根据定义,调试工具是那些那些使我们能够监测、控制和纠正其他程序的程序。我们为什么应该用调试工具呢? 在有些情况下,运行一些程序的时候我们会被卡住,我们需要明白究竟发生了什么。 例如,我们正在运行应用程序,它产生了一些错误消息。要修复这些错误,我们应该先找出为什么产生这些错误的消息和这些错误消息从哪里产生的。 一个应用程序可能突然挂起,我们必须了解其他什么进程同时在运行。我们可能还必须弄清楚某个进程挂起的时候在做什么。为了剖析这些细节, 我们需要调试工具的帮助。 ![](/data/attachment/album/201503/12/164209hcc87ly78n05zsq8.jpg) (题图来自:axxomovies.org) 有几个Linux下的用户空间调试工具和技术,它们用来分析用户空间的问题相当有用。它们是: * **'print' 语句** * **查询 (/proc, /sys 等)** * **跟踪 (strace/ltrace)** * **Valgrind (memwatch)** * **GDB** 让我们一个个地了解。 ### 1.'print' 语句 这是一个基本的原始的调试问题的方法。 我们可以在程序中插入print语句来了解控制流和变量值。 虽然这是一个简单的技术, 但它有一些缺点。 程序需要进行编辑以添加'print'语句,然后必须重新编译,重新运行来获得输出。 如果要调试的程序相当大,这是一个耗时的方法。 ### 2. 查询 在某些情况下,我们需要弄清楚在一个运行在内核中的进程的状态和内存映射。为了获得这些信息,我们不需要在内核中插入任何代码。 相反,可以用 /proc 文件系统。 /proc 是一个伪文件系统,系统一启动运行就收集着运行时系统的信息 (cpu信息, 内存容量等)。 ![output of 'ls /proc'](/data/attachment/album/201503/12/164213wlly7erwuux9wl7b.png) *'ls /proc'的输出* 正如你看到的, 系统中运行的每一个进程在/proc文件系统中有一个以进程id命名的项。每个进程的细节信息可以在进程id对应的目录下的文件中获得。 ![output of 'ls /proc/pid'](/data/attachment/album/201503/12/164215b3kun61unhknhbck.png) *'ls /proc/pid'的输出* 解释/proc文件系统内的所有条目超出了本文的范围。一些有用的列举如下: * /proc/cmdline -> 内核命令行 * /proc/cpuinfo -> 关于处理器的品牌,型号信息等 * /proc/filesystems -> 文件系统的内核支持的信息 * /proc/<pid>/cmdline -> 命令行参数传递到当前进程 * /proc/<pid>/mem -> 当前进程持有的内存 * /proc/<pid>/status -> 当前进程的状态 ### 3. 跟踪 strace的和ltrace是两个在Linux中用来追踪程序的执行细节的跟踪工具。 #### strace: strace拦截和记录系统调用及其接收的信号。对于用户,它显示了系统调用、传递给它们的参数和返回值。strace的可以附着到已在运行的进程或一个新的进程。它作为一个针对开发者和系统管理员的诊断、调试工具是很有用的。它也可以用来当做一个通过跟踪不同的程序调用来了解系统的工具。这个工具的好处是不需要源代码,程序也不需要重新编译。 使用strace的基本语法是: **strace 命令** strace有各种各样的参数。可以检查看strace的手册页来获得更多的细节。 strace的输出非常长,我们通常不会对显示的每一行都感兴趣。我们可以用'-e expr'选项来过滤不想要的数据。 用 '-p pid' 选项来绑到运行中的进程. 用'-o'选项,命令的输出可以被重定向到文件。 ![output of strace filtering only the open system call](/data/attachment/album/201503/12/164216wj3mn9mjnegunje3.png) *strace过滤成只有系统调用的输出* #### ltrace: ltrace跟踪和记录一个进程的动态(运行时)库的调用及其收到的信号。它也可以跟踪一个进程所作的系统调用。它的用法是类似与strace。 **ltrace command** '-i' 选项在调用库时打印指令指针。 '-S' 选项被用来现实系统调用和库调用 所有可用的选项请参阅ltrace手册。 ![output of ltrace capturing 'strcmp' library call](/data/attachment/album/201503/12/164217h6rax7uf9a8zw7x6.png) *ltrace捕捉'STRCMP'库调用的输出* ### 4. Valgrind Valgrind是一套调试和分析工具。它的一个被广泛使用的默认工具——'Memcheck'——可以拦截malloc(),new(),free()和delete()调用。换句话说,它在检测下面这些问题非常有用: * 内存泄露 * 重释放 * 访问越界 * 使用未初始化的内存 * 使用已经被释放的内存等。 它直接通过可执行文件运行。 Valgrind也有一些缺点,因为它增加了内存占用,会减慢你的程序。它有时会造成误报和漏报。它不能检测出静态分配的数组的访问越界问题。 为了使用它,首先请[下载](http://valgrind.org/downloads.html)并安装在你的系统上。可以使用操作系统上的包管理器来安装。 使用命令行安装需要解压缩和解包下载的文件。 ``` tar -xjvf valgring-x.y.z.tar.bz2 (where x.y.z is the version number you are trying to install) ``` 进入新创建的目录(的valgrind-XYZ)内运行以下命令: ``` ./configure make make install ``` 让我们通过一个小程序(test.c)来理解valgrind怎么工作的: ``` #include <stdio.h> void f(void) { int x = malloc(10 * sizeof(int)); x[10] = 0; } int main() { f(); return 0; } ``` 编译程序: ``` gcc -o test -g test.c ``` 现在我们有一个可执行文件叫做'test'。我们现在可以用valgrind来检测内存错误: ``` valgrind –tool=memcheck –leak-check=yes test ``` 这是valgrind呈现错误的输出: ![output of valgrind showing heap block overrun and memory leak](/data/attachment/album/201503/12/164218lp5jw1zodwcdcpqa.png) *valgrind显示堆溢出和内存泄漏的输出* 正如我们在上面看到的消息,我们正在试图访问函数f未分配的内存以及分配尚未释放的内存。 ### 5. GDB GDB是来自自由软件基金会的调试器。它对定位和修复代码中的问题很有帮助。当被调试的程序运行时,它给用户控制权去执行各种动作, 比如: * 启动程序 * 停在指定位置 * 停在指定的条件 * 检查所需信息 * 改变程序中的数据 等。 你也可以将一个崩溃的程序coredump附着到GDB并分析故障的原因。 GDB提供很多选项来调试程序。 然而,我们将介绍一些重要的选择,来感受如何开始使用GDB。 如果你还没有安装GDB,可以在这里下载:[GDB官方网站](http://www.gnu.org/software/gdb/download/)。 #### 编译程序: 为了用GDB调试程序,必须使用gcc的'-g'选项进行编译。这将以操作系统的本地格式产生调试信息,GDB利用这些信息来工作。 下面是一个简单的程序(example1.c)执行被零除用来显示GDB的用法: ``` #include int divide() { int x=5, y=0; return x / y; } int main() { divide(); } ``` ![An example showing usage of gdb](/data/attachment/album/201503/12/164220djyusau3myjmlyj6.png) *展示GDB用法的例子* #### 调用 GDB: 通过在命令行中执行'gdb'来启动gdb: ![invoking gdb](/data/attachment/album/201503/12/164222wcstzjtcje3oj6tr.png) *调用 gdb* 调用后, 它将等待终端命令并执行,直到退出。 如果一个进程已经在运行,你需要将GDB连接到它上面,可以通过指定进程ID来实现。假设程序已经崩溃,要分析问题的原因,则用GDB分析core文件。 #### 启动程序: 一旦你在GDB里面,使用'run'命令来启动程序进行调试。 #### 给程序传参数: 使用'set args'给你的程序传参数,当程序下次运行时将获得该参数。'show args'将显示传递给程序的参数。 #### 检查堆栈: 每当程序停止,任何人想明白的第一件事就是它为什么停止,以及怎么停在那里的。该信息被称为反向跟踪。由程序产生每个函数调用和局部变量,传递的参数,调用位置等信息一起存储在堆栈内的数据块种,被称为一帧。我们可以使用GDB来检查所有这些数据。 GDB从最底层的帧开始给这些帧编号。 * **bt**: 打印整个堆栈的回溯 * **bt** 打印n个帧的回溯 * **frame** : 切换到指定的帧,并打印该帧 * **up** : 上移'n'个帧 * **down** : 下移'n'个帧 ( n默认是1) #### 检查数据: 程序的数据可以在里面GDB使用'print'命令进行检查。例如,如果'x'是调试程序内的变量,'print x'会打印x的值。 #### 检查源码: 源码可以在GDB中打印。默认情况下,'list'命令会打印10行代码。 * **list** : 列出'linenum'行周围的源码 * **list** : 从'function'开始列出源码 * **disas** : 显示该函数机器代码 #### 停止和恢复程序: 使用GDB,我们可以在必要的地方设置断点,观察点等来停止程序。 * **break** : 在'location'设置一个断点。当在程序执行到这里时断点将被击中,控制权被交给用户。 * **watch** : 当'expr'被程序写入而且它的值发生变化时GDB将停止 * **catch** : 当'event'发生时GDB停止 * **disable** : 禁用指定断点 * **enable** : 启用指定断点 * **delete** : 删除 断点/观察点/捕获点。 如果没有传递参数默认操作是在所有的断点 * **step**: 一步一步执行程序 * **continue**: 继续执行程序,直到执行完毕 #### 退出 GDB: 用'quit'命令还从GDB中退出。 GDB还有更多的可用选项。里面GDB使用help选项了解更多详情。 ![getting help within gdb](/data/attachment/album/201503/12/164223lcbwgwwyqgbqgbmq.png) *在GDB中获得帮助* ### 总结 在这篇文章中,我们已经看到不同类型的Linux用户空间的调试工具。总结以上所有内容,如下是什么时候使用该什么的快速指南: * 基本调试,获得关键变量 - print 语句 * 获取有关文件系统支持,可用内存,CPU,运行程序的内核状态等信息 - 查询 /proc 文件系统 * 最初的问题诊断,系统调用或库调用的相关问题,了解程序流程 – strace / ltrace * 应用程序内存空间的问题 – valgrind * 检查应用程序运行时的行为,分析应用程序崩溃 – gdb --- via: <http://linoxide.com/linux-how-to/user-space-debugging-tools-linux/> 作者:[B N Poornima](http://linoxide.com/author/bnpoornima/) 译者:[mtunique](https://github.com/mtunique) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/user-space-debugging-tools-linux/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c5000>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,051
Linux有问必答:如何在脚本中获取进程ID(PID)
http://ask.xmodulo.com/process-id-pid-shell-script.html
2015-03-13T14:07:00
[ "PID", "shell" ]
/article-5051-1.html
> > **提问**: 我想要知道运行中脚本子shell的进程id。我该如何在shell脚本中得到PID。 > > > 当我在执行shell脚本时,它会启动一个叫子shell的进程。作为主shell的子进程,子shell将shell脚本中的命令作为批处理运行(因此称为“批处理进程”)。 ![](/data/attachment/album/201503/13/102017pod3mofmomoeerio.png) 在某些情况下,你也许想要知道运行中的子shell的PID。这个PID信息可以在不同的情况下使用。比如,你可以使用shell脚本的PID在/tmp下创建一个唯一的临时文件。有时侯脚本需要检测所有运行的进程,它可以从进程列表中排除自身的子shell。 在bash中,**子shell进程的PID**存储在一个特殊的变量‘$$’中。这个变量只读,你不可以在脚本中修改它。比如: ``` #!/bin/bash echo "PID of this script: $$" ``` 上面的脚本会得到下面的输出: ``` PID of this script: 6583 ``` 除了`$$`, bash shell还会导出其他的只读变量。比如,PPID存储子shell父进程的ID(也就是主shell)。UID存储了执行这个脚本的当前用户ID。比如: ``` #!/bin/bash echo "PID of this script: $$" echo "PPID of this script: $PPID" echo "UID of this script: $UID" ``` 输出是: ``` PID of this script: 6686 PPID of this script: 4656 UID of this script: 1000 ``` 上面输出中,PID每次执行都会变化。这个因为每次运行都会创建一个新的shell。另一方面,PPID每次都会一样只要你在同一个shell中运行。 ![](/data/attachment/album/201503/13/102025wzgz7m0pmgl0zrpp.jpg) 对于所有bash内置变量列表,参考man页。 ``` $ man bash ``` --- via: <http://ask.xmodulo.com/process-id-pid-shell-script.html> 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /process-id-pid-shell-script.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c4040>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)"))
null
5,060
Google云服务为Docker应用提供简化版Ubuntu
http://www.infoworld.com/article/2860401/cloud-computing/google-cloud-offers-streamlined-ubuntu-for-docker-use.html
2015-03-15T23:44:13
[ "Ubuntu Core", "Docker" ]
https://linux.cn/article-5060-1.html
> > Ubuntu Core为运行容器提供了最小的轻量级Linux环境 > > > ![](/data/attachment/album/201503/15/234420o8tm88aa9atg85gh.png) Google为自己的云服务采用了一个简化版的Canonical Ubuntu Linux发行版,以优化运行Docker和其他容器。 Ubuntu Core被设计成仅提供在云上运行Linux所必需的组件。它发布了一个[早期预览版](http://www.ubuntu.com/cloud/tools/snappy),Canonical命名其为“Snappy”。这个新版本裁减了大量在普通Linux发行版中常见而在云应用中不实用的库和应用程序。 Google计算引擎(GCE)和Microsoft Azure[加入了](http://www.ubuntu.com/cloud/tools/snappy)支持这个新的发行版的行列。 从Canonical了解到,Ubuntu Core将为用户提供一个部署Docker的简单方式,一个[日益精简的虚拟容器](http://www.ubuntu.com/cloud/tools/snappy)允许用户快速启动工作负载并轻松地转移,甚至可以跨越不同的云服务提供商。 Google是Docker和基于容器的虚拟化的热心支持者。在去年六月份,这家公司[用开源的方式发布了一个容器管理软件](http://www.itworld.com/article/2695383/open-source-tools/docker-all-geared-up-for-the-enterprise.html):Kubernetes。 Ubuntu Core在设计上类似于另一个[发布于一年前](http://www.itworld.com/article/2696116/open-source-tools/coreos-linux-does-away-with-the-upgrade-cycle.html)的 Linux发行版 CoreOS。CoreOS 主要由两名前Rackspace工程师开发,[CoreOS](https://coreos.com/using-coreos/)是一个轻量级Linux发行版,设计运行在集群中,被那些在网页上完成他们大部分或所有业务的公司所喜好的大规模环境。CoreOS很快被许多云服务提供商采用,包括Microsoft Azure,Amazon网站服务,DigitalOcean以及Google计算引擎。 如同CoreOS一样,Ubuntu Core提供了一个快速引擎来更新组件,减少系统管理员去手动处理的时间。 --- via: <http://www.infoworld.com/article/2860401/cloud-computing/google-cloud-offers-streamlined-ubuntu-for-docker-use.html> 作者:[Joab Jackson](http://www.infoworld.com/author/Joab-Jackson/) 译者:[zpl1025](https://github.com/zpl1025) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,061
WordPress 可以触发 Linux 上的 Ghost 缺陷
http://news.softpedia.com/news/WordPress-Can-Be-Used-to-Leverage-Critical-Ghost-Flaw-in-Linux-471730.shtml
2015-03-16T06:47:00
[ "PHP", "WordPress", "Ghost", "安全漏洞" ]
https://linux.cn/article-5061-1.html
*建议用户马上更新可用的补丁* ![WordPress validating pingback’s post URL](/data/attachment/album/201503/15/235034mrjkfjxflx9rzqkk.jpg) **这个漏洞之前由Qualys的安全研究员发现,并取了绰号叫[Ghost](1),可以利用WordPress或其他PHP应用来攻击网站服务器。** 这个瑕疵是一个缓冲区溢出问题,可以被攻击者触发用来获取Linux主机的命令行执行权限。发生在glibc的“\_\_nss\_hostname\_digits\_dots()”函数中,它会被“gethostbyname()”函数用到。 ### PHP应用可以用来利用这个瑕疵 Sucuri的Marc-Alexandre Montpas说之所以这个问题很重要是因为这些函数在大量软件和服务器系统使用。 “说这是个严重问题的一个例子是WordPress本身:它使用一个叫wp\_http\_validate\_url()的函数来验证每个pingback的发送URL,它是通过PHP应用的“gethostbyname()”函数替代来执行的”,他在周三的一篇博客文章里写到。 攻击者可以用这种方式来引入一个设计用来触发服务器端漏洞的恶意URL,从而获得系统访问权限。 实际上,Trustwave的安全研究人员提供了[验证](http://blog.spiderlabs.com/2015/01/ghost-gethostbyname-heap-overflow-in-glibc-cve-2015-0235.html)代码,可以使用WordPress的pingback功能引起缓冲区溢出。 ### 多个Linux发行版受到影响 ghost漏洞存在于glibc 2.17以上版本中,发布于2013年5月21日。glibc当前版本是2.20,发布于2014年9月。 不过,当时并没有升级为一个安全补丁,许多发行版并没有包含进去,特别是提供长期支持(LTS)的发行版。 受影响的系统包括Debian 7(wheezy),Red Hat企业版Linux 6和7,CentOS 6和7,Ubuntu 12.04。幸运的是,Linux供应商已经开始发布可以减轻风险的升级补丁。建议用户马上下载并更新。 为了展示这个漏洞,Qualys建立了一个利用它通过Exim邮件服务器运行远程代码的试验页面。这家安全公司声称在这个漏洞丢掉半条命之前不会关闭这个页面,意思是受影响的系统的数量降到50%的水平。 Linux上存在漏洞的应用包括clockdiff,ping和arping(在某些特定情况下),procmail,pppd,和Exim邮件服务器。 --- via: <http://news.softpedia.com/news/WordPress-Can-Be-Used-to-Leverage-Critical-Ghost-Flaw-in-Linux-471730.shtml> 作者:[Ionut Ilascu](http://news.softpedia.com/editors/browse/ionut-ilascu) 译者:[zpl1025](https://github.com/zpl1025) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,062
意大利艾米利亚-罗马涅大区正在切换到OpenOffice
http://itsfoss.com/emiliaromagna-completes-switch-openoffice/
2015-03-16T08:13:00
[ "OpenOffice", "开源软件", "意大利" ]
https://linux.cn/article-5062-1.html
![](/data/attachment/album/201503/16/001641aiqaw8iqq0yvzz0z.jpg) 在拥抱开源的道路上,意大利似乎走在了最前面。我们已经知道,很多意大利的城市如[乌迪内](http://linux.cn/article-3853-1.html),[都灵](http://linux.cn/article-3602-1.html),[Todi和都灵](http://itsfoss.com/italian-cities-switch-libreoffice/)过去已经选择了[开源办公套件以取代微软的Office](http://itsfoss.com/best-free-open-source-alternatives-microsoft-office/)。现在,位于意大利北部的[艾米利亚-罗马涅大区](http://en.wikipedia.org/wiki/Emilia-Romagna)(位于意大利北部,是意大利20个大区之一)也将在下个月完成向[Apache OpenOffice](https://www.openoffice.org/)的过渡。 ### 切换到 OpenOffice 这次向OpenOffice的迁移将会在下个月完成,而且将会覆盖4200个计算机工作站,涉及到10个部门和5个代理机构。 而且,开源文档格式(ODF)也将成为默认的文档格式。向OpenOffice的过渡最初在2013年底被提出来,原本打算在2014年底完成。这次从商业办公产品改用OpenOffice,从授权费用来说,据信会[节约大概2 000 000欧元](http://www.slwoods.co.uk/?p=2886)。 为了使这次顺利搬家和方便内部操作,负责这次搬家的团队正在开发许多定制工具和插件。 本次项目的负责人,Giovanni Grazia对本次“搬家”充满激情,但同时他也做好了应对批评的准备: > > “改用新的办公套件并不是一件容易完成的工作,我们借这次机会来拥护免费和开源的软件。一些地区的公务员表示高度支持,而另一些则感到厌烦,因为他们已经使用商业产品二十年了。为了处理任何在迁移中发生的问题,一个有着三个IT专家的五人支持团队正在一个部门接一个部门,逐渐地完成这次迁移。” > > > ### 祝愿 我希望其他的国家也能使用OpenOffice套件,祝愿所有迁移到开源软件的人或国家都顺利完成。 --- via: <http://itsfoss.com/emiliaromagna-completes-switch-openoffice/> 作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,067
如何使用 fail2ban 防御 SSH 服务器的暴力破解攻击
http://xmodulo.com/how-to-protect-ssh-server-from-brute-force-attacks-using-fail2ban.html
2015-03-17T07:26:00
[ "暴力破解", "密码", "fail2ban" ]
https://linux.cn/article-5067-1.html
对于SSH服务的常见的攻击就是暴力破解攻击——远程攻击者通过不同的密码来无限次地进行登录尝试。当然SSH可以设置使用非密码验证验证方式来对抗这种攻击,例如[公钥验证](http://xmodulo.com/how-to-force-ssh-login-via-public-key-authentication.html)或者[双重验证](http://linux.cn/article-3725-1.html)。将不同的验证方法的优劣处先放在一边,如果我们必须使用密码验证方式怎么办?你是如何保护你的 SSH 服务器免遭暴力破解攻击的呢? ![](/data/attachment/album/201503/16/213158d63ef20068090hf8.jpg) [fail2ban](http://www.fail2ban.org/) 是 Linux 上的一个著名的入侵保护的开源框架,它会监控多个系统的日志文件(例如:/var/log/auth.log 或者 /var/log/secure)并根据检测到的任何可疑的行为自动触发不同的防御动作。事实上,fail2ban 在防御对SSH服务器的暴力密码破解上非常有用。 在这篇指导教程中,我会演示**如何安装并配置 fail2ban 来保护 SSH 服务器以避免来自远程IP地址的暴力攻击**。 ### 在linux上安装Fail2ban 为了在CentOS 或 RHEL上安装fail2ban,首先[设置EPEL仓库](http://linux.cn/article-2324-1.html),然后运行以下命令。 ``` $ sudo yum install fail2ban ``` 在Fedora上安装fail2ban,简单地运行以下命令: ``` $ sudo yum install fail2ban ``` 在ubuntu,Debian 或 Linux Mint上安装fail2ban: ``` $ sudo apt-get install fail2ban ``` ### 为SSH服务器配置Fail2ban 现在你已经准备好了通过配置 fail2ban 来加强你的SSH服务器。你需要编辑其配置文件 /etc/fail2ban/jail.conf。 在配置文件的“[DEFAULT]”区,你可以在此定义所有受监控的服务的默认参数,另外在特定服务的配置部分,你可以为每个服务(例如SSH,Apache等)设置特定的配置来覆盖默认的参数配置。 在针对服务的监狱区(在[DEFAULT]区后面的地方),你需要定义一个[ssh-iptables]区,这里用来定义SSH相关的监狱配置。真正的禁止IP地址的操作是通过iptables完成的。 下面是一个包含“ssh-iptables”监狱配置的/etc/fail2ban/jail.conf的文件样例。当然根据你的需要,你也可以指定其他的应用监狱。 ``` $ sudo vi /etc/fail2ban/jail.local ``` ``` [DEFAULT] # 以空格分隔的列表,可以是 IP 地址、CIDR 前缀或者 DNS 主机名 # 用于指定哪些地址可以忽略 fail2ban 防御 ignoreip = 127.0.0.1 172.31.0.0/24 10.10.0.0/24 192.168.0.0/24 # 客户端主机被禁止的时长(秒) bantime = 86400 # 客户端主机被禁止前允许失败的次数 maxretry = 5 # 查找失败次数的时长(秒) findtime = 600 mta = sendmail [ssh-iptables] enabled = true filter = sshd action = iptables[name=SSH, port=ssh, protocol=tcp] sendmail-whois[name=SSH, dest=your@email.com, sender=fail2ban@email.com] # Debian 系的发行版 logpath = /var/log/auth.log # Red Hat 系的发行版 logpath = /var/log/secure # ssh 服务的最大尝试次数 maxretry = 3 ``` 根据上述配置,fail2ban会自动禁止在最近10分钟内有超过3次访问尝试失败的任意IP地址。一旦被禁,这个IP地址将会在24小时内一直被禁止访问 SSH 服务。这个事件也会通过sendemail发送邮件通知。 一旦配置文件准备就绪,按照以下方式重启fail2ban服务。 在 Debian, Ubuntu 或 CentOS/RHEL 6: ``` $ sudo service fail2ban restart ``` 在 Fedora 或 CentOS/RHEL 7: ``` $ sudo systemctl restart fail2ban ``` 为了验证fail2ban成功运行,使用参数'ping'来运行fail2ban-client 命令。 如果fail2ban服务正常运行,你可以看到“pong(嘭)”作为响应。 ``` $ sudo fail2ban-client ping Server replied: pong ``` ### 测试 fail2ban 保护SSH免遭暴力破解攻击 为了测试fail2ban是否能正常工作,尝试通过使用错误的密码来用SSH连接到服务器模拟一个暴力破解攻击。与此同时,监控 /var/log/fail2ban.log,该文件记录在fail2ban中发生的任何敏感事件。 ``` $ sudo tail -f /var/log/fail2ban.log ``` ![](/data/attachment/album/201503/16/213238d79dl9dpqwvzl9xg.jpg) 根据上述的日志文件,Fail2ban通过检测IP地址的多次失败登录尝试,禁止了一个IP地址192.168.1.8。 ### 检查fail2ban状态并解禁被锁住的IP地址 由于fail2ban的“ssh-iptables”监狱使用iptables来阻塞问题IP地址,你可以通过以下方式来检测当前iptables来验证禁止规则。 ``` $ sudo iptables --list -n ``` ``` Chain INPUT (policy ACCEPT) target prot opt source destination fail2ban-SSH tcp -- 0.0.0.0/0 0.0.0.0/0 tcp dpt:22 Chain FORWARD (policy ACCEPT) target prot opt source destination Chain OUTPUT (policy ACCEPT) target prot opt source destination Chain fail2ban-SSH (1 references) target prot opt source destination DROP all -- 192.168.1.8 0.0.0.0/0 RETURN all -- 0.0.0.0/0 0.0.0.0/0 ``` 如果你想要从fail2ban中解锁某个IP地址,你可以使用iptables命令: ``` $ sudo iptables -D fail2ban-SSH -s 192.168.1.8 -j DROP ``` 当然你可以使用上述的iptables命令手动地检验和管理fail2ban的IP阻塞列表,但实际上有一个适当的方法就是使用fail2ban-client命令行工具。这个命令不仅允许你对"ssh-iptables"监狱进行管理,同时也是一个标准的命令行接口,可以管理其他类型的fail2ban监狱。 为了检验fail2ban状态(会显示出当前活动的监狱列表): ``` $ sudo fail2ban-client status ``` 为了检验一个特定监狱的状态(例如ssh-iptables): ``` $ sudo fail2ban-client status ssh-iptables ``` 上面的命令会显示出被禁止IP地址列表。 ![](/data/attachment/album/201503/16/213249fxhdcqm5cjahodrx.jpg) 为了解锁特定的IP地址: ``` $ sudo fail2ban-client set ssh-iptables unbanip 192.168.1.8 ``` ![](/data/attachment/album/201503/16/213258e0w6tap68twgw68n.jpg) 注意,如果你停止了Fail2ban 服务,那么所有的IP地址都会被解锁。当你重启 Fail2ban,它会从/etc/log/secure(或 /var/log/auth.log)中找到异常的IP地址列表,如果这些异常地址的发生时间仍然在禁止时间内,那么Fail2ban会重新将这些IP地址禁止。 ### 设置 Fail2ban 自动启动 一旦你成功地测试了fail2ban之后,最后一个步骤就是在你的服务器上让其在开机时自动启动。在基于Debian的发行版中,fail2ban已经默认让自动启动生效。在基于Red-Hat的发行版中,按照下面的方式让自动启动生效。 在 CentOS/RHEL 6中: ``` $ sudo chkconfig fail2ban on ``` 在 Fedora 或 CentOS/RHEL 7: ``` $ sudo systemctl enable fail2ban ``` ### 总结 在该教程中,我演示了如何安装并配置fail2ban来保护一个SSH服务器。当然fail2ban可以缓解暴力密码攻击,但是请注意,这并不能保护SSH服务器避免来自复杂的分布式暴力破解组织,这些攻击者通过使用成千上万个机器控制的IP地址来绕过fail2ban的防御机制。 --- via: <http://xmodulo.com/how-to-protect-ssh-server-from-brute-force-attacks-using-fail2ban.html> 作者:[Dan Nanni](http://xmodulo.com/author/nanni) 译者:[theo-l](https://github.com/theo-l) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,068
如何配置 fail2ban 来保护 Apache 服务器
http://xmodulo.com/configure-fail2ban-apache-http-server.html
2015-03-18T07:02:00
[ "fail2ban", "Apache" ]
https://linux.cn/article-5068-1.html
生产环境中的 Apache 服务器可能会受到不同的攻击。攻击者或许试图通过暴力攻击或者执行恶意脚本来获取未经授权或者禁止访问的目录。一些恶意爬虫或许会扫描你网站下的各种安全漏洞,或者通过收集email地址和web表单来发送垃圾邮件。 Apache服务器具有全面的日志功能,可以捕捉到各种攻击所反映的异常事件。然而,它还不能系统地解析具体的apache 日志并迅速地对潜在的攻击进行反应(比如,禁止/解禁IP地址)。这时候`fail2ban`可以解救这一切,解放了系统管理员的工作。 `fail2ban`是一款入侵防御工具,可以基于系统日志检测不同的工具并且可以自动采取保护措施比如:通过`iptables`禁止ip、通过 /etc/hosts.deny 阻止连接、或者通过邮件发送通知。fail2ban具有一系列预定义的“监狱”,它使用特定程序日志过滤器来检测通常的攻击。你也可以编写自定义的规则来检测来自任意程序的攻击。 在本教程中,我会演示如何配置fail2ban来保护你的apache服务器。我假设你已经安装了apache和fail2ban。对于安装,请参考[另外一篇教程](http://linux.cn/article-5067-1.html)。 ### 什么是 Fail2ban 监狱 ![](/data/attachment/album/201503/16/220730kgg5ksgsggfgl2jw.png) 让我们更深入地了解 fail2ban 监狱。监狱定义了具体的应用策略,它会为指定的程序触发一个保护措施。fail2ban在 /etc/fail2ban/jail.conf 下为一些流行程序如Apache、Dovecot、Lighttpd、MySQL、Postfix、[SSH](http://linux.cn/article-5067-1.html) 等预定义了一些监狱。每个监狱都通过特定的程序日志过滤器(在/etc/fail2ban/fileter.d 下面)来检测通常的攻击。让我看一个例子监狱:SSH监狱。 ``` [ssh] enabled = true port = ssh filter = sshd logpath = /var/log/auth.log maxretry = 6 banaction = iptables-multiport ``` SSH监狱的配置定义了这些参数: * **[ssh]**: 方括号内是监狱的名字。 * **enabled**:是否启用监狱 * **port**: 端口号(或者对应的服务名称) * **filter**: 检测攻击的日志解析规则 * **logpath**: 所检测的日志文件 * **maxretry**: 最大失败次数 * **banaction**: 所进行的禁止操作 定义在监狱配置中的任意参数都会覆盖`fail2ban-wide` 中相应的默认配置参数。相反,任何缺少的参数都会使用定义在[DEFAULT] 字段的默认值。 预定义的日志过滤器都放在/etc/fail2ban/filter.d,而可以采取的禁止操作放在 /etc/fail2ban/action.d。 ![](/data/attachment/album/201503/16/220750ee5w2gal9ay4r3fz.jpg) 如果你想要覆盖`fail2ban`的默认操作或者定义任何自定义监狱,你可以创建*/etc/fail2ban/jail.local*\*文件。本篇教程中,我会使用/etc/fail2ban/jail.local。 ### 启用预定义的apache监狱 `fail2ban`的默认安装为Apache服务提供了一些预定义监狱和过滤器。我要启用这些内建的Apache监狱。由于Debian和RedHat配置的稍微不同,我会分别提供它们的配置文件。 #### 在Debian 或者 Ubuntu启用Apache监狱 要在基于Debian的系统上启用预定义的apache监狱,如下创建/etc/fail2ban/jail.local。 ``` $ sudo vi /etc/fail2ban/jail.local ``` --- ``` # 检测密码认证失败 [apache] enabled = true port = http,https filter = apache-auth logpath = /var/log/apache*/*error.log maxretry = 6 # 检测漏洞和 PHP 脆弱性扫描 [apache-noscript] enabled = true port = http,https filter = apache-noscript logpath = /var/log/apache*/*error.log maxretry = 6 # 检测 Apache 溢出攻击 [apache-overflows] enabled = true port = http,https filter = apache-overflows logpath = /var/log/apache*/*error.log maxretry = 2 # 检测在服务器寻找主目录的尝试 [apache-nohome] enabled = true port = http,https filter = apache-nohome logpath = /var/log/apache*/*error.log maxretry = 2 ``` 由于上面的监狱没有指定措施,这些监狱都将会触发默认的措施。要查看默认的措施,在/etc/fail2ban/jail.conf中的[DEFAULT]下找到“banaction”。 ``` banaction = iptables-multiport ``` 本例中,默认的操作是iptables-multiport(定义在/etc/fail2ban/action.d/iptables-multiport.conf)。这个措施使用iptable的多端口模块禁止一个IP地址。 在启用监狱后,你必须重启fail2ban来加载监狱。 ``` $ sudo service fail2ban restart ``` #### 在CentOS/RHEL 或者 Fedora中启用Apache监狱 要在基于红帽的系统中启用预定义的监狱,如下创建/etc/fail2ban/jail.local。 ``` $ sudo vi /etc/fail2ban/jail.local ``` --- ``` # 检测密码认证失败 [apache] enabled = true port = http,https filter = apache-auth logpath = /var/log/httpd/*error_log maxretry = 6 # 检测抓取邮件地址的爬虫 [apache-badbots] enabled = true port = http,https filter = apache-badbots logpath = /var/log/httpd/*access_log bantime = 172800 maxretry = 1 # 检测漏洞和 PHP 脆弱性扫描 [apache-noscript] enabled = true port = http,https filter = apache-noscript logpath = /var/log/httpd/*error_log maxretry = 6 # 检测 Apache 溢出攻击 [apache-overflows] enabled = true port = http,https filter = apache-overflows logpath = /var/log/httpd/*error_log maxretry = 2 # 检测在服务器寻找主目录的尝试 [apache-nohome] enabled = true port = http,https filter = apache-nohome logpath = /var/log/httpd/*error_log maxretry = 2 # 检测执行不存在的脚本的企图 # 这些都是流行的网站服务程序 # 如:webmail, phpMyAdmin,WordPress port = http,https filter = apache-botsearch logpath = /var/log/httpd/*error_log maxretry = 2 ``` 注意这些监狱文件默认的操作是iptables-multiport(定义在/etc/fail2ban/jail.conf中[DEFAULT]字段下的“banaction”中)。这个措施使用iptable的多端口模块禁止一个IP地址。 启用监狱后,你必须重启fail2ban来加载监狱。 在 Fedora 或者 CentOS/RHEL 7中: ``` $ sudo systemctl restart fail2ban ``` 在 CentOS/RHEL 6中: ``` $ sudo service fail2ban restart ``` ### 检查和管理fail2ban禁止状态 监狱一旦激活后,你可以用fail2ban的客户端命令行工具来监测当前的禁止状态。 查看激活的监狱列表: ``` $ sudo fail2ban-client status ``` 查看特定监狱的状态(包含禁止的IP列表): ``` $ sudo fail2ban-client status [监狱名] ``` ![](/data/attachment/album/201503/16/220802r6ezeihy3ncminjh.jpg) 你也可以手动禁止或者解禁IP地址: 要用制定监狱禁止IP: ``` $ sudo fail2ban-client set [name-of-jail] banip [ip-address] ``` 要解禁指定监狱屏蔽的IP: ``` $ sudo fail2ban-client set [name-of-jail] unbanip [ip-address] ``` ### 总结 本篇教程解释了fail2ban监狱如何工作以及如何使用内置的监狱来保护Apache服务器。依赖于你的环境以及要保护的web服务器类型,你或许要调整已有的监狱或者编写自定义监狱和日志过滤器。查看outfail2ban的[官方Github页面](https://github.com/fail2ban/fail2ban)来获取最新的监狱和过滤器示例。 你有在生产环境中使用fail2ban么?分享一下你的经验吧。 --- via: <http://xmodulo.com/configure-fail2ban-apache-http-server.html> 作者:[Dan Nanni](http://xmodulo.com/author/nanni) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,069
如何清理你的 Ubuntu 14.10/14.04/13.10 系统
http://www.ubuntugeek.com/cleaning-up-a-ubuntu-gnulinux-system-updated-with-ubuntu-14-10-and-more-tools-added.html
2015-03-17T08:09:00
[ "Ubuntu", "清理" ]
https://linux.cn/article-5069-1.html
前面我们已经讨论了[如何清理 Ubuntu GNU/Linux 系统](http://www.ubuntugeek.com/cleaning-up-all-unnecessary-junk-files-in-ubuntu.html),这篇教程将在原有教程的基础上,增加对新的 Ubuntu 发行版本的支持,并介绍更多的工具。 假如你想清理你的 Ubuntu 主机,你可以按照以下的一些简单步骤来移除所有不需要的垃圾文件。 ![](/data/attachment/album/201503/17/002036iso7tgtw45ojotet.jpg) (题图来自:amysplaceforyouth.org) ### 移除多余软件包 这又是一个内置功能,但这次我们不必使用新得立包管理软件(Synaptic Package Manager),而是在终端中达到目的。 现在,在终端窗口中键入如下命令: ``` sudo apt-get autoclean ``` 这便激活了包清除命令。这个命令所做的工作是: 自动清除那些当你安装或升级程序时系统所缓存的 `.deb` 包(即清除 `/var/cache/apt/archives` 目录,不过只清理过时的包)。如果需要使用清除命令,只需在终端窗口中键入以下命令: ``` sudo apt-get clean ``` 然后你就可以使用自动移除命令。这个命令所做的工作是:清除那些 在系统中被某个已经卸载的软件 作为依赖所安装的软件包。要使用自动移除命令,在终端窗口中键入以下命令: ``` sudo apt-get autoremove ``` ### 移除不需要的本地化数据 为达到此目的,我们需要安装 `localepurge` 软件,它将自动移除一些不需要的本地化数据(LCTT 译注:即各种语言翻译)。这个软件是一个简单的脚本,它将从那些不再需要的本地化文件和本地化联机手册( man pages ) 所占用的空间中回收磁盘空间。这个软件将在任何 apt 安装命令运行时 被自动激活。 在 Ubuntu 中安装 `localepurge:` ``` sudo apt-get install localepurge ``` 在通过 `apt-get install` 安装任意软件后, localepurge 将移除所有不是使用你系统中所设定语言的翻译文件和翻译的联机手册。 假如你想设置 `localepurge`,你需要编辑 `/ect/locale.nopurge` 文件。 根据你已经安装的软件,这将为你节省几兆的磁盘空间。 例子: 假如我试着使用 `apt-get` 来安装 `dicus`软件: ``` sudo apt-get install discus ``` 在软件安装完毕之后,你将看到如下提示: > > localepurge: Disk space freed in /usr/share/locale: 41860K > > > ### 移除孤包 假如你想移除孤包,你需要安装 `deborphan` 软件: 在 Ubuntu 中安装 `deborphan` : ``` sudo apt-get install deborphan ``` 使用 deborphan,打开终端并键入如下命令即可: ``` sudo deborphan | xargs sudo apt-get -y remove --purge ``` #### 使用 GtkOrphan 来移除孤包 `GtkOrphan` (一个针对 debian 系发行版本的 Perl/Gtk2 应用) 是一个分析用户安装过程状态并查找孤立库文件的图形化工具,它为 `deborphan` 提供了一个 GUI 前端,并具备移除软件包的功能。 在 Ubuntu 中安装 GtkOrphan,打开终端并运行如下命令: ``` sudo apt-get install gtkorphan ``` 一张截图 ![](/data/attachment/album/201503/17/002140q3lvvp0uruh3cazp.png) #### 使用 Wajig 移除孤包 `Wajig`是 Debian 包管理系统中一个简单的软件包管理前端。它将 apt、apt-cache、 dpkg、 /etc/init.d 中的脚本等 通过一个单一命令集成在一起,它的设计初衷是使用简单和为它的所有功能提供丰富的文档。 通过适当的 `sudo`配置,大多数(如果不是全部)的软件包安装和创建等任务可以通过一个用户 shell 来完成。`Wajig` 也适用于一般的系统管理。另外,一个 Gnome GUI 命令 `gjig`也被囊括在这个软件包之中。 在 Ubuntu 中安装 Wajig,打开终端并运行如下命令: ``` sudo apt-get install wajig ``` ### Debfoster --- 跟踪你在安装过程中的操作 debfoster 将会维护一个列有被明确需要安装的软件包的列表,但不包括那些作为某个软件的依赖而被安装的软件包。参数是完全可选的,你甚至可以使得在 dpkg 和/或 apt-get 每次运行之后马上激活 debfoster 。 另外,你还可以在命令行中使用 debfoster 来安装或移除某些特定的软件包。那些后缀为 `---` 的软件包将会被移除,而没有后缀的软件包将会被安装。 假如一个新的软件包或 debfoster 注意到作为某个软件包的依赖的软件包是一个孤包,则 debfoster 将会询问你下一步如何操作。若你决定保留这个孤包, debfoster 将只会进行记录并继续安装过程;若你觉得这个软件包不足以引起你的兴趣,在 debfoster 询问这个问题后,它将移除这个软件包。进一步的,如果你的决定使得其他的软件包变为孤包,更多的提问将会接踵而来。 在 Ubuntu 中安装 debfoster,打开终端并运行如下命令: ``` sudo apt-get install debfoster ``` ### 使用 debfoster 为了创建一个初始跟踪文件,可以使用如下命令: ``` sudo debfoster -q ``` 你总可以编辑 `/var/lib/debfoster/keepers` 文件,来定义那些你想留在系统中的软件包。 为了编辑这个文件,可以键入: ``` sudo vi /var/lib/debfoster/keepers ``` 要强制使 debfoster 去移除所有没有被列在上面这个文件的软件包,或安装作为某些列在这个文件中的软件包的依赖,它也同时会添加所有在这个列表中没有被安装的软件包。若要根据这个列表来执行相关操作,只需执行: ``` sudo debfoster -f ``` 若需要跟踪你新安装的软件包,你需要时不时地执行如下命令: ``` sudo debfoster ``` ### xdiskusage -- 查看你的硬盘空间都去哪儿了 图形化地展示磁盘使用情况的 du。xdiskusage 是一个用户友好型的程序,它将为你展示你所有磁盘的使用情况。 它是在 Phillip C. Dykstra 所写的 “xdu” 程序的基础上设计的。做了一些修改以使得它可以为你运行 “du”命令,并显示磁盘的剩余空间,并且假如你想清晰地了解你的磁盘空间都去哪儿了,它还可以生成一个 PostScript 格式的名为 display.xdiskusage 的文件。 在 Ubuntu 中安装 xdiskusage,只需使用如下命令: ``` sudo apt-get install xdiskusage ``` 若你想打开这个应用,你需要使用如下命令: ``` sudo xdiskusage ``` 一旦这个应用被打开,你将看到如下图所示的界面: ![](/data/attachment/album/201503/17/002142zw277opi7l7k17vv.png) ### Bleachbit BleachBit 能快速地释放磁盘空间并不知疲倦地保护你的隐私。它可以释放缓存,删除 cookie,清除 Internet 上网历史,粉碎临时文件,删除日志,丢弃你所不知道存在何处的垃圾。为 Linux 和 Windows 系统而设计,它支持擦除清理数以千计的应用程序,如 Firefox, Internet Explorer, Adobe Flash, Google Chrome, Opera, Safari 等等。除了简单地删除文件,BleachBit 还包括许多高级功能,诸如粉碎文件以防止恢复,擦除磁盘空间来隐藏被其他应用程序所删除文件的痕迹,为火狐“除尘”,使其速度更快等。比免费更好,BleachBit 是一个开源软件。 在 Ubuntu 中安装 Bleachbit,打开终端并运行如下命令: ``` sudo apt-get install bleachbit ``` 一张截图 ![](/data/attachment/album/201503/17/002144wwduuff5uapmqprd.png) ### 使用 Ubuntu-Tweak 最后,你也可以使用 [Ubuntu-Tweak](http://linux.cn/article-3335-1.html) 来清理你的系统。 --- via: <http://www.ubuntugeek.com/cleaning-up-a-ubuntu-gnulinux-system-updated-with-ubuntu-14-10-and-more-tools-added.html> 作者:[ruchi](http://www.ubuntugeek.com/author/ubuntufix) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
200
OK
# Cleaning up Ubuntu 14.10,14.04,13.10 system **Sponsored Link** [Cleaning up a Ubuntu GNU/Linux system](http://www.ubuntugeek.com/cleaning-up-all-unnecessary-junk-files-in-ubuntu.html)and this tutorial is updated with new ubuntu versions and more tools added. If you want to clean your ubuntu machine you need to follow these simple steps to remove all unnecessary junk files. **Remove partial packages** This is yet another built-in feature, but this time it is not used in Synaptic Package Manager. It is used in the Terminal. Now, in the Terminal, key in the following command sudo apt-get autoclean Then enact the package clean command. What this commnad does is to clean remove .deb packages that apt caches when you install/update programs. To use the clean command type the following in a terminal window: sudo apt-get clean You can then use the autoremove command. What the autoremove command does is to remove packages installed as dependencies after the original package is removed from the system. To use autoremove tye the following in a terminal window: sudo apt-get autoremove **Remove unnecessary locale data** For this we need to install localepurge.Automagically remove unnecessary locale data.This is just a simple script to recover diskspace wasted for unneeded locale files and localized man pages. It will automagically be invoked upon completion of any apt installation run. Install localepurge in Ubuntu sudo apt-get install localepurge After installing anything with apt-get install, localepurge will remove all translation files and translated man pages in languages you cannot read. If you want to configure localepurge you need to edit /etc/locale.nopurge This can save you several megabytes of disk space, depending on the packages you have installed. Example:- I am trying to install dicus using apt-get sudo apt-get install discus after end of this installation you can see something like below localepurge: Disk space freed in /usr/share/locale: 41860K **Remove "orphaned" packages** If you want to remove orphaned packages you need to install deborphan package. Install deborphan in Ubuntu sudo apt-get install deborphan **Using deborphan** Open Your terminal and enter the following command sudo deborphan | xargs sudo apt-get -y remove --purge **Remove "orphaned" packages Using GtkOrphan** GtkOrphan (a Perl/Gtk2 application for debian systems) is a graphical tool which analyzes the status of your installations, looking for orphaned libraries. It implements a GUI front-end for deborphan, adding the package-removal capability. **Install GtkOrphan in Ubuntu** Open the terminal and run the following command sudo apt-get install gtkorphan **Remove Orphan packages using Wajig** simplified Debian package management front end.Wajig is a single commandline wrapper around apt, apt-cache, dpkg,/etc/init.d scripts and more, intended to be easy to use and providing extensive documentation for all of its functions. With a suitable sudo configuration, most (if not all) package installation as well as creation tasks can be done from a user shell. Wajig is also suitable for general system administration.A Gnome GUI command ‘gjig' is also included in the package. **Install Wajig in Ubuntu** Open the terminal and run the following command sudo apt-get install wajig **Debfoster --- Keep track of what you did install** debfoster maintains a list of installed packages that were explicitly requested rather than installed as a dependency. Arguments are entirely optional, debfoster can be invoked per se after each run of dpkg and/or apt-get. Alternatively you can use debfoster to install and remove packages by specifying the packages on the command line. Packages suffixed with a --- are removed while packages without a suffix are installed. If a new package is encountered or if debfoster notices that a package that used to be a dependency is now an orphan, it will ask you what to do with it. If you decide to keep it, debfoster will just take note and continue. If you decide that this package is not interesting enough it will be removed as soon as debfoster is done asking questions. If your choices cause other packages to become orphaned more questions will ensue. **Install debfoster in Ubuntu** Open the terminal and run the following command sudo apt-get install debfoster **Using debfoster** to create the initial keepers file use the following command sudo debfoster -q you can always edit the file /var/lib/debfosterkeepers which defines the packages you want to remain on your system. to edit the keepers file type sudo vi /var/lib/debfoster/keepers To force debfoster to remove all packages that aren't listed in this list or dependencies of packages that are listed in this list.It will also add all packages in this list that aren't installed. So it makes your system comply with this list. Do this sudo debfoster -f To keep track of what you installed additionally do once in a while : sudo debfoster **xdiskusage -- Check where the space on your hard drive goes** Displays a graphic of your disk usage with du.xdiskusage is a user-friendly program to show you what is using up all your disk space. It is based on the design of the "xdu" program written by Phillip C. Dykstra. Changes have been made so it runs "du" for you, and can display the free space left on the disk, and produce a PostScript version of the display.xdiskusage is nice if you want to easily see where the space on your hard drive goes. **Install xdiskusage in Ubuntu** sudo apt-get install xdiskusage If you want to open this application you need to use the following command sudo xdiskusage Once it opens you should see similar to the following screen **Bleachbit** BleachBit quickly frees disk space and tirelessly guards your privacy. Free cache, delete cookies, clear Internet history, shred temporary files, delete logs, and discard junk you didn't know was there. Designed for Linux and Windows systems, it wipes clean a thousand applications including Firefox, Internet Explorer, Adobe Flash, Google Chrome, Opera, Safari,and more. Beyond simply deleting files, BleachBit includes advanced features such as shredding files to prevent recovery, wiping free disk space to hide traces of files deleted by other applications, and vacuuming Firefox to make it faster. Better than free, BleachBit is open source. **Install Bleachbit in ubuntu** Open the terminal and run the following command sudo apt-get install bleachbit **Using Ubuntu-Tweak** You can also Use [Ubuntu-Tweak](www.ubuntugeek.com/install-ubuntu-tweak-on-ubuntu-14-10.html) To clean up your system youker-Assistant is the best application for cleaning up Ubuntu system which is shockingly not mentioned here.I tried debfoster given here and could not figure out what am doing and what is happening despite following every bit given here.All the above advise is of no help.Users will need an application like youker which is so simple like a windows top rated cleaning software and ease of operation with many things bundled in one.Unless applications like this are known and popularized it is difficult for new users to look at Ubantu. Of course youker is saying still under development.Am right now new user on Ubantu, nervously used youker and wondered with the huge amount of cleaning it did and doubted whether my system will be ok or not.But am so happy to see that all is OK and perfect.Mine is new Dell Inspiron 15 5000 series 5558 with i3, 1tb,6gb and Ubuntu 14.04 Thanks for the nice article. Instructions are clear and purposes are well explained. Very helpful. Some articles suggest not to use bleach bit and Ubuntu tweak. Why? Thanks
5,078
Linux 上的最佳 C/C++ IDE
http://xmodulo.com/good-ide-for-c-cpp-linux.html
2015-03-18T09:25:00
[ "IDE", "编辑器", "C/C++" ]
https://linux.cn/article-5078-1.html
"一个真正的程序员是不用IDE(译者注:集成开发环境)的,他们都是用带着某某插件的文本编辑器来写代码。"我们总能在某些地方听到此类观点。然而,尽管越来越多的人同意这样的观点,但是一个IDE仍然非常有用,它设置简单,使用起来也很方便,因此不能比这样更合适编写一个项目了。所以鉴于这点,在这里我想给大家列一份在Linux平台上比较好的C/C++ IDE清单。为什么特地说C/C++呢?因为C语言是我最喜欢的编程语言,而且我们总要找个切入点来开始。另外要注意的是,通常有很多种编写C代码的方法,所以为了消减清单的篇幅,我只选择了"真正好用的IDE",而不是诸如Gedit或Vim这种注入[插件](http://xmodulo.com/turn-vim-full-fledged-ide.html)的文本编辑器。并不是说这些编辑器不好,只是如果我将文本编辑器包含进去那这份清单就将永无止境了。 ### 1. Code::Blocks ![](/data/attachment/album/201503/17/232634dmqlbx891ebmqlbj.jpg) 用我个人的最爱来开篇,[Code::Blocks](http://www.codeblocks.org/)是一款简单快速的专有C/C++ IDE。就像任何一款强大的IDE一样, 它集成了语法高亮、书签功能、自动补全功能、项目管理和一个调试器。它最闪亮的地方在于它简单的插件系统,里面添加了不可缺少的工具,像Valgrind和CppCheck,还有不太重要的比如像俄罗斯方块这样的小游戏。但是我特别喜欢它的理由是它连贯方便的快捷键设定和大量的却感受不到拥挤的选项设置。 ### 2. Eclipse ![](/data/attachment/album/201503/17/232639xii40ia0ashiqoa9.jpg) 我知道我只说"真正好用的IDE"而不是带着插件的文本编辑器,但是,[Eclipse](https://eclipse.org/)的确是一款"真正好用的IDE",只是Eclipse需要一些[插件](http://xmodulo.com/how-to-set-up-c-cpp-development-environment-in-eclipse.html)(或经过一些改装)来编写C程序,所以严格来说我无法反驳我自己。而且,做一份IDE清单不提到Eclipse这个“巨人”是不可能的事情。无论喜欢它与否,Eclipse仍然是一款强大的Java编程工具。这里要感谢[CDT 项目](https://eclipse.org/cdt/),让Eclipse编写C程序变得可能。你同样可以体验到Eclipse的强大功能,包括它的一些传统功能特点比如自动补全、代码大纲、代码生成器和先进的重构功能。照我话说,它的不足之处在于它不如Code::Blocks那么轻量级,它仍然很臃肿,要花费很多时间去载入。但是如果你的电脑可以驾驭它,或者你是个忠实的Eclipse粉,那么它一定是你的不二选择。 ### 3. Geany ![](/data/attachment/album/201503/17/232643ewlws1y0s1xgu1nw.jpg) 牺牲了很多特色功能但是增加了很多灵活性,[Geany](http://www.geany.org/)就是这样一款与Eclipse对立的软件。但是对于它所缺乏的地方(比如说没有调试器), Geany用一些漂亮小巧的特色功能弥补了它们:一个可以做笔记的区域、基于模板创作、代码大纲、自定义快捷键和插件管理。相比于现在的IDE,Geany仍然是一款作用广泛的文本编辑器,然而,因为它的功能亮点和它的界面设计,所以我把它放在这份列表里。 ### 4. MonoDevelop ![](/data/attachment/album/201503/17/232645m930313z4zvwnfii.jpg) 这又是这份列表里的一个“巨人级”工具,[MonoDevelop](http://www.monodevelop.com/)那无与伦比的体验来源于它的外表和界面。我个人非常喜爱它的项目管理体系和它的一体化版本控制系统。插件系统同样漂亮地让人震惊。但是由于一些原因,所有的设置和对所有编程语言的支持对于我来说让我感觉有点“资源过剩”了。它仍然是我在过去经常使用的伟大工具,但不是我在单单处理C语言时的第一选择。 ### 5. Anjuta ![](/data/attachment/album/201503/17/232647acgz2enybc6qbjrb.jpg) 它身上有着强烈的“GNOME即视感”,[Anjuta](http://anjuta.org/)的外观很具争议。我倾向于把它看作是带着调试器的Geany升级版,但是它的界面实际上要复杂得多。我确实很享受能在项目、文件夹和代码大纲视图之间来回切换的标签系统,我本想用诸如更多的快捷方法来移动文件,然而,这是一个很好的提供了显著编译功能和构建选项的工具,它能够支持哪些很有特点的需求。 ### 6. Komodo Edit ![](/data/attachment/album/201503/17/232650ti9bghmrrnikb0mb.jpg) 我不是非常熟悉[Komodo Edit](http://komodoide.com/komodo-edit/),但是在试用了一段时间之后,我被它很多很多的优点给惊喜到了。首先,基于标签的导航功能有很强的可预见性。其次它奇特的代码大纲让我想到了Sublime Text。此外,它的宏系统和文件比较器使得Komodo Edit非常实用。它的插件库让它几乎是完美的,说“几乎”是因为在其它IDE里我的确找不到能与之相媲美的快捷方法了。而且我们能享受到更多特别的C/C++工具,这往往是普通IDE的不足之处。然而,Komodo Edit就能做到。 ### 7. NetBeans ![](/data/attachment/album/201503/17/232656mlv43hygmooocl4c.jpg) 就好像Eclipse一样,这又是一款不得不提的“巨人级”软件。拥有的功能包括通过标签进行导航、项目管理、代码大纲、更改历史追踪和大量工具,[NetBeans](https://netbeans.org/)可能是最完整的IDE了,我能用半页来列出它所有让人震惊的特色功能。但是这同时也很容易地向你透露了它的主要缺点,它太臃肿了。比起它的强大,我更喜欢基于插件的软件,因为我觉得不太会有人为了一个同样的项目同时需要Git和Mercurial相结合来工作,我是不是很疯狂?但是如果你有耐心去掌握它所有的选项,那你差不多无论到哪里都是IDE大师了。 ### 8. KDevelop ![](/data/attachment/album/201503/17/232702kuzphhi7wi9wwaw5.jpg) 说到这,肯定照顾到所有的KDE粉丝,[KDevelop](https://www.kdevelop.org/)会是你希望的答案。它拥有许多配置选项,如果你设法去征服KDevelop,那它就是你的。你们说我肤浅,但是我真的从来没有深入过除它界面以外的层次了,对于我来说编辑器本身就携带着大量的导航选项和可定制的快捷键简直是一个再糟糕不过的事了。它的调试器也是相当高级,要去练习掌握。然而,这样的耐心是有回报的,就是能领会到这款灵活的IDE的全部能力,并且由于它令人吃惊的嵌入式文件编制,你会给予它一种特殊的信任。 ### 9. CodeLite ![](/data/attachment/album/201503/17/232706wvp7sw3fpiyekd1y.jpg) 留在最后的不代表是最差的,[CodeLite](http://codelite.org/)展现给你一种传统的编程规则却仍然能让你从它身上那特有的感觉上有所收获,即使它的界面一开始的确让我想到了Code::Blocks和Anjuta,只是不包括大量的插件库。无论你想要比较文件、插入一条版权块、定义缩略语或者用Git来工作,总有一款插件适合你。如果我不得不挑点毛病,我想说它缺乏一些符合我口味的导航快捷键,但这是真的。 最后,我希望这份清单能让你给自己最喜欢的语言探索到更多新的IDE。虽然Code::Blocks仍然是我的最爱,不过它有一些很强大的对手。当然我们也可以远离Linux上的IDE,而用文本编辑器去编写C/C++代码。所以如果你有什么其它的建议想法,在评论中让我们获悉。或者如果你想要我再说说关于一些其它语言的IDE,也可以评论里提出。 --- via: <http://xmodulo.com/good-ide-for-c-cpp-linux.html> 作者:[Adrien Brochard](http://xmodulo.com/author/adrien) 译者:[ZTinoZ](https://github.com/ZTinoZ) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,082
Windows 10 VS. Linux
http://ostatic.com/blog/windows-10-versus-linux
2015-03-19T07:11:00
[ "微软", "Windows 10" ]
https://linux.cn/article-5082-1.html
前阵子 Windows 10 好像占据了绝大部分头条,甚至在一些Linux圈里也是一样。最具代表性的是 betanews.com 的 Brian Fagioli 说 Windows 10 已经为 Linux 桌面系统敲响了丧钟,Microsoft 如今宣布将为忠实的 Windows 用户免费提供 Windows 10,Steven J. Vaughan-Nichols 说这是一个最新的开源公司,然后 Matt Hartley 比较了 Windows 10 和 Ubuntu,Jesse Smith 从 Linux 用户的视角对 Windows 10 做出评估。 ![](/data/attachment/album/201503/18/221853x9wmtxoid9xmlidl.jpg) **Windows 10**,在 Microsoft [声明](https://news.google.com/news/section?q=microsoft+windows+10+free&ie=UTF-8&oe=UTF-8)说将免费提供给 Windows 7 及以上用户,这件事成为如今大家闲聊的热门话题。在 Linuxland 这里,也没有被忽视。betanews.com 的 Brian Fagioli,一个自封的 Linux 粉丝,如今这样说,“ Windows 10 把门彻底关上了。Linux 桌面元年将永远不会到来,歇歇吧。”[Fagioli解释](http://betanews.com/2015/01/25/windows-10-is-the-final-nail-in-the-coffin-for-the-linux-desktop/)说 Microsoft 倾听了用户的抱怨而且并不只是记录一下,还更好地解决了这些问题。他说 Linux 错失了由 Windows 8 不受欢迎以及巨大失败带来的机会。然后他总结,拜 Windows 10 所赐,处于边缘地带的我们只能接受一个“破碎的梦”。 不过,来自闻名的 Distrowatch.com 的 Jesse Smith 说 Microsoft 并没有提供一个很明显的下载方式,不过确实可行而且它也升级了。安装程序非常简单,除了分区功能很有限甚至有点吓人。在最终启动进入 Windows 10 后,Smith说界面布局很“松散”,没有 Win7 里被很多人讨厌的大量分散注意的元素,开始菜单又回来了,取消了欢迎屏幕。据Smith所说,还有一个很类似 Ubuntu 和 Android 的新的包管理程序,不过需要 Microsoft 在线账户才可以使用。[Smith的总结](http://blowingupbits.com/2015/01/an-outsiders-perspective-on-windows-10-preview/)里有这样一条,“感觉 Windows 10 像是 Android 的早期 beta 版本,一个设计成时刻保持在线的消费者操作系统。而不像是一个我能用来完成工作的操作系统。” **S**mith的[完整文章](http://blowingupbits.com/2015/01/an-outsiders-perspective-on-windows-10-preview/)里比较了 Windows 10 和 Linux 的大量细节,不过 Matt Hartley 发表了一份实在的 Windows 10 vs Linux 的报告。[他说](http://www.datamation.com/open-source/windows-vs-linux-the-2015-version-1.html)两者的安装程序都很直观和简单,Windows 的双启动仍然没那么容易,Windows 默认提供了加密而 Ubuntu 只提供了配置选项。在桌面方面 Hartley 说 Windows 10 “纠结地丢弃了它 Windows 8 的根。”他觉得 Windows 10 的 Windows 商店比 Ubuntu 的漂亮很多,但是实在不喜欢通过“一切都是卡片”的方式来查看新安装的应用。Hartley这样总结,“首先是它将为大量 Windows 用户提供免费升级。这意味着大大降低了进入和升级门槛。第二,看起来 Microsoft 这次真的在全力以赴地倾听他们的用户需求了。” **S**teven J. Vaughan-Nichols 如今声称 Microsoft 是最新的开源公司;不仅因为它将发布 Windows 10 的免费升级,而且 Microsoft 正在从一个软件公司转型为一个软件服务公司。然后,据 Vaughan-Nichols 所说,Microsoft 需要开源来完成这次转型。从Novell/SUSE开始,他们已经致力于这一块儿好多年了。不仅如此,他们也发布过开源软件(不管什么目的)。[Vaughan-Nichols总结](http://www.zdnet.com/article/microsoft-the-open-source-company/),“很多人不这么认为,但是Microsoft——就是Microsoft——已经成为一家开源公司。” --- via: <http://ostatic.com/blog/windows-10-versus-linux> 作者:[Susan Linton](http://ostatic.com/member/susan-linton) 译者:[zpl1025](https://github.com/zpl1025) 校对:[Caroline](https://github.com/carolinewuyan) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
503
Service Temporarily Unavailable
null
5,083
IE被弃之探:开源的垄断才是好垄断
http://www.leiphone.com/news/201503/wRJpcCFeoYys5av5.html
2015-03-19T11:23:00
[ "微软", "IE", "Internet Explorer", "浏览器" ]
https://linux.cn/article-5083-1.html
![](/data/attachment/album/201503/18/222630ngmq2mef65req1ms.png) 微软IE即将寿终正寝。一系列的浏览器技术改进、一系列的广告营销活动,一切都未能挽救已有20多年历史的IE的命运。运行卡顿、网页显示Bug多多、进程不时崩溃,IE的负面形象已成为微软背负的枷锁。不堪重负的微软终于决定,放弃这一伴随许多年轻人长大的浏览器品牌。 对于IE自身存在的问题,业内已有许多讨论。确实,IE需要承担得太多。为了兼容性,微软需要让IE去支持互联网发展早期的许多网页技术。原因很简单:很多企业内网中仍有不少基于过时技术开发的服务,而说服这些企业投资升级这些服务,使其支持最新的网页技术,这难度很大。而为了确保后向兼容,IE只能变得更复杂,当然也就更容易出现问题。 技术只是因素之一,而导致IE最终无法跟上网页技术的发展潮流,原因更多地在于微软的策略问题。 IE诞生于互联网发展的早期。彼时,网页浏览器的开发成本很高,软件公司需要自行开发浏览器内核和脚本引擎,同时也要自行设计各种人机互动功能和界面。这样的工作非微软和网景等大公司无以完成。在90年代与网景的撕逼战中,IE是最终胜出者。这意味着,IE所采用的一系列微软私有技术都获得了温和的生存土壤,而微软可以优哉游哉地慢慢改进浏览器技术,享受着垄断(或者更委婉的说法,“市场主导地位”)带来的红利。 与其他任何垄断一样,IE的创新速度非常缓慢。毕竟,在“创新者困境”中,没有任何领先的公司会去主动变革自己。2005年左右,继承自网景的火狐浏览器开始与微软展开新一轮争夺。微软面对这一竞争仍然游刃有余,牢牢把握着主流用户群体,将火狐压缩在极客和技术工作者这一市场。不过,火狐赖以成功的重要因素:开源,正是IE随后逐渐失去竞争优势的一半原因。 那么另一半原因是什么?简单地说,这就是其他巨头的到来。行业巨头+开源模式,这带来了另一种“市场主导地位”。 谷歌于2008年推出了Chrome浏览器。从一开始,Chrome浏览器就基于开源的WebKit引擎。随后,谷歌对浏览器的优化也包括对WebKit引擎的优化。在谷歌的大力投资之下,变得更好的不只是Chrome浏览器,也包括了WebKit。 随着开源的浏览器内核、JavaScript引擎,以及其他浏览器模块的发展,当代浏览器的开发呈现出模块化的趋势。这意味着,只要遵守开源协议,任何开发者都可以使用这些模块。开发者甚至只需设计自己的界面和标志,并拿出一些独创的小功能,即可推出一款新的浏览器产品。 在这样的情况下,浏览器开发的时间周期从90年代的按年计算下降至目前的按月计算,甚至按天计算。而对于浏览器基本的功能和性能,例如网页渲染速度和JavaScript脚本运行速度,开发者毫无疑问会倾向于选择市面上最优秀的产品。在这种情况下,WebKit成为了当然的选择。 大大小小的软件公司和互联网公司也有动机去开发自主品牌浏览器。浏览器是普通用户的上网入口,可以衍生出多种商业模式,并带来不菲的收益。例如,浏览器的默认登录页面可以提供上网导航服务,而默认搜索引擎既可以推动自主搜索引擎产品的发展,也可以通过为主流搜索引擎导入流量来获得收入。实际上,浏览器是互联网生态系统的重要一环。 市场环境如此,而谷歌不失时机地投资WebKit恰好满足了市场需求。开源的WebKit聚集了一批浏览器开发商。例如,国内常见的360、搜狗和遨游等浏览器都集成了WebKit内核。而在国外,Opera也于2013年放弃了自主内核,倒向了WebKit阵营。通过控制浏览器内核,谷歌实际上已经主导了当代浏览器技术的发展。 近期美国科技圈的一种论调是,谷歌正在成为新的微软。但同样是“市场主导地位”,谷歌的做法要比微软高出几个段位。浏览器内核开发耗费的时间、精力和资金巨大,因此即使已经开源,独立开发者和小公司仍然很难对这样的产品做出突破。通过这种开源产品去主导市场,充分调动市场各方的参与热情为己所用,远比通过私有技术去主导市场更高明。 毫无疑问谷歌已经谙熟此道,而移动操作系统市场的Android就是另一个很好的案例。微软正在开发新的浏览器Project Spartan。而在缺乏生态圈配合的情况下,这款浏览器能取得什么样的成绩仍值得怀疑。或许,这款浏览器未来的命运可能会类似叫好不叫座的Windows Phone,在Android的重压下步履艰难。
302
Found
null
5,084
Linux 游戏之 2015 动向
http://www.gamingonlinux.com/articles/a-look-at-what-linux-games-we-will-see-in-2015-and-beyond.4963
2015-03-19T09:27:00
[ "游戏", "Linux" ]
https://linux.cn/article-5084-1.html
他们说Linux游戏开发已经死了,已经变得毫无意义…… 随他们说去吧。一起看看2015乃至以后会为我们带来什么 Linux 游戏。 真的很难跟得上扑面而来的各种形形色色的新事物,但是可以快速浏览一下我们将会看到的变化。 ![](/data/attachment/album/201503/19/193511j6l8nnoi88iz5lz1.png) ![](/data/attachment/album/201503/18/233029dogq77wqotrq6uk7.jpg) ### 已确认的游戏 #### 冒险游戏 * [看火人(Firewatch)](https://www.gamingonlinux.com/articles/category/17/articles/firewatch-a-first-person-mystery-game-finally-reveals-itself-in-a-trailer.4231) * [失落的天堂:初探(Paradise Lost: First Contact)](http://www.asthreeworks.com/games/) * [时空英豪 1.1(Outcast 1.1)](https://www.gamingonlinux.com/articles/outcast-a-real-classic-has-been-revamped-and-linux-is-planned.4736) * [蒸汽世界:浩劫(SteamWorld Heist)](https://www.gamingonlinux.com/articles/category/17/articles/image-form-announces-steamworld-heist.4304) #### 动作游戏 * [暗黑血统(Darksiders)](https://www.gamingonlinux.com/articles/darksiders-linux-port-looks-like-it-is-still-happening.4893) * [暗黑血统 2(Darksiders 2)](https://www.gamingonlinux.com/articles/darksiders-2-confirmed-for-linux.4154) * [尸人的世界(Ray's The Dead)](http://ragtagstudio.com/?page_id=457) * [骷髅女孩(Skullgirls)](https://www.gamingonlinux.com/articles/editorial-skullgirls-on-linux-finally-shows-some-progress.4789) #### 第一人称游戏 * [生化奇兵:无限(Bioshock Infinite)](https://www.gamingonlinux.com/articles/bioshock-infinite-looks-set-for-a-linux-release-confirmed.4668) * 半条命 3 /troll (Half Life 3 /troll) * [烽火家园:革命(Homefront: The Revolution)](http://www.homefront-game.com/) * [叛变(Insurgency)](https://www.gamingonlinux.com/articles/insurgency-fps-is-waiting-on-valve-so-it-can-come-to-linux-updated.4564) * [杀戮空间 2(Killing Floor 2)](https://www.gamingonlinux.com/articles/category/17/articles/killing-floor-2-fps-has-a-new-trailer.4676) * 英雄萨姆 4(Serious Sam 4)(目前无官方站点) * [联合风暴(Storm United)](https://www.gamingonlinux.com/articles/storm-united-online-fps-shows-first-real-gameplay-video-first-alpha-due-soon.4872) * [烈火击杀(SUPERHOT)](http://superhotgame.com/) #### 平台游戏 * [武装原型(Broforce)](http://steamcommunity.com/app/274190/discussions/0/540738051503306548/#c540738051518330743) * [峡谷(Chasm)](https://www.gamingonlinux.com/articles/category/17/articles/chasm-rpg-platformer-will-have-a-same-day-linux-release.4266) #此处游戏中文名尚不确定 * [吉安娜姐妹(Giana Sisters)](https://www.gamingonlinux.com/articles/linux-port-of-platformer-giana-sisters-brought-inhouse-sequel-might-get-sameday-release.4913) * [心之所向:Alicia(Heart Forth, Alicia)](http://www.alonsomartin.mx/hfa/) * [热铁皮屋顶(Hot Tin Roof)](http://www.hottinroofgame.com/) * [无限工厂(Infinifactory)](https://twitter.com/zachtronics/status/566016742825005057) * [无敌9号(Mighty No. 9)](http://www.mightyno9.com/) * [林中之夜(Night in the Woods)](http://www.nightinthewoods.com/) * [夜(Noct)](https://www.gamingonlinux.com/articles/category/17/articles/noct-a-fantastic-top-down-thermal-image-survival-horror-game.4783) * [奇异的世界:新鲜可口(Oddworld: New 'N' Tasty)](https://www.gamingonlinux.com/articles/puzzle-platformer-oddworld-new-n-tasty-will-release-for-linux-next-month.4836) * [真红女神(Red Goddess)](https://www.gamingonlinux.com/articles/new-trailer-for-platformer-red-goddesss-looks-really-good.4939) #### 赛车游戏 * [赛车计划(Project Cars)](http://projectcarsgame.com/) * [死亡赛车:再生(Carmageddon: Reincarnation)](https://www.gamingonlinux.com/articles/carmageddon-reincarnations-jason-garber-answers-our-questions-on-their-linux-support.3380) #### 角色扮演游戏 * [神界:原罪(Divinity: Original Sin)](https://www.gamingonlinux.com/articles/divinity-original-sin-is-pushing-ahead-for-the-linux-release.4938) * [永恒之柱(Pillars Of Eternity)](https://www.gamingonlinux.com/articles/pillars-of-eternity-the-rpg-aims-for-a-sameday-linux-release-on-march-26th.4834) * [暗影狂奔:香港(Shadowrun: Hong Kong)](https://www.kickstarter.com/projects/webeharebrained/shadowrun-hong-kong) * [旗帜的传说(The Banner Saga)](https://www.gamingonlinux.com/articles/the-banner-saga-rpg-looks-close-to-a-linux-version.4862) * [镇魂曲:遗器之潮(Torment: Tides of Numenera)](https://www.gamingonlinux.com/articles/torment-tides-of-numenera-new-video-looks-absolutely-stunning.4320) #### 策略游戏 * [奇迹时代3(Age of Wonders III)](https://www.gamingonlinux.com/articles/the-linux-port-of-age-of-wonders-iii-is-progressing-a-bit-too-explosive-right-now.4857) * [At The Gates](http://www.atthegatesgame.com/info) # 尚无中文名 * [放逐之城(Banished)](https://www.gamingonlinux.com/articles/banished-survival-city-building-sim-is-being-ported-to-linux.4813) * [城:天际(Cities: Skylines)](https://www.gamingonlinux.com/articles/city-builder-game-cities-skylines-now-has-a-release-date.4954) * [发条帝国(Clockwork Empires)](https://www.gamingonlinux.com/articles/clockwork-empires-still-pushing-towards-a-linux-version-suffering-delays.4734) * [Parkitect](https://www.gamingonlinux.com/articles/category/17/articles/parkitect-what-roller-coaster-tycoon-should-have-grown-into.4528) # 尚无中文名 * [卷轴(Scrolls)](https://www.gamingonlinux.com/articles/mojangs-scrolls-now-has-an-experimental-linux-build.4450) * [太空海盗和僵尸 2(Space Pirates And Zombies 2)](https://www.gamingonlinux.com/articles/space-pirates-and-zombies-2-reveals-the-zombies-in-a-brand-new-video.4759) #### 沙盒游戏 * [泰拉瑞亚(Terraria)](https://www.gamingonlinux.com/articles/terraria-officially-confirmed-to-be-in-development-for-linux-finally.4299) * [X 重生(X Rebirth)](https://www.gamingonlinux.com/articles/egosofts-x-rebirth-actively-being-ported-to-linux.4822) #### 体育游戏 * [惊爆美国棒球16(Out of the Park Baseball 16)](http://www.ootpdevelopments.com/newsletters/nl0154/) ### 不太确认,不过可能性高 * [英雄连 2(Company of Heroes 2)](https://www.gamingonlinux.com/articles/company-of-heroes-2-looks-like-it-is-heading-to-linux.4199) * [逃生(Outlast)](https://www.gamingonlinux.com/articles/outlast-that-really-scary-game-looks-like-its-still-heading-to-linux.4896) * [影子武士(Shadow Warrior)](https://www.gamingonlinux.com/articles/shadow-warrior-looks-like-it-will-come-to-linux.4859) * 无光之海 - 其开发商试验性地构建 Linux 版本,不过这要取决于他们的 Windows 版本的销售情况(据邮件沟通信息) * [火炬之光 2(Torchlight II)](https://www.gamingonlinux.com/articles/torchlight-ii-has-even-more-positive-signs-for-linux.4817) 然而有[两个来自Feral Interactive的移植大作](http://feralinteractive.com/en/upcoming/),由于不知道他们是什么,所以没有列举出来。 我们猜测Aspyr也在准备新的大制作,但是他们仅仅发布了他们最新的游戏,所以可能要等上几个月我们才能看到些什么。 当然,\*\* 这不是完整的列表 \*\*,我们会轻易忘记如此多的游戏正在走向我们,哇,如此丰富的列表。 我们也期待 GDC 2015 上有一些改变,然而,我们没有什么确切的东西,对于Valve与Steam Machines的合作,我们期待至少会增加一些Linux游戏,否则,如我们担心,炫耀一些过时的游戏会让Valve脸上无光。 希望我们没有错过那些 Linux 中让你感到兴奋的东西! --- via: <http://www.gamingonlinux.com/articles/a-look-at-what-linux-games-we-will-see-in-2015-and-beyond.4963> 作者:[liamdawe](http://www.gamingonlinux.com/profiles/1) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,093
死灰复燃!SCO 重新发起 UNIX 诉讼,如成功可能危及 Linux 根基
http://www.sltrib.com/news/2303519-155/its-alive-sco-group-suit-revived
2015-03-20T14:25:41
[ "SCO", "UNIX", "IBM", "Linux" ]
https://linux.cn/article-5093-1.html
尘封12年之后,SCO起诉IBM滥用开源代码的官司重新被犹他州联邦法庭开案审理。早在2003年,SCO这家犹他州软件企业向蓝色巨人提出了高达50亿美金的赔偿述求。近12年后,两家公司联合向盐湖城地区法院提出裁决申请,这意味着地区法官大卫纳福尔必须要重启此案。 ![](/data/attachment/album/201503/20/142115w917y19o2cro7oac.jpeg) 根据 SCO 提出的诉讼,**IBM 当时盗用了 SCO 所拥有的 UNIX 操作系统代码去支持新兴的 Linux 开源社区,从而给 UNIX 带来了一个强大的竞争对手**。不过,对于 SCO 声称的大公司在应用 Linux 开源代码时必须使用 IBM 提供的 SCO 代码,开源社区普遍并不认可。 SCO 目前的控制人爱德华科恩表示,能够再次推进本案对 SCO 公司非常重要。在2007年相对不利的法院决议后,SCO 公司申请了破产保护,前联邦法官爱德华科恩被指定为 SCO 的受托人,他现在希望大卫纳福尔尽快确定开庭时间。而 IBM 则表示,在开庭时间确认之前,希望大卫纳福尔能够先明确该公司是否可以先搁置 SCO 对IBM的其它起诉——除了起诉IBM盗用其代码之外,SCO 还控诉 IBM 的高层和律师曾在接到 SCO 的起诉后示意其工程师删除计算机上的代码。此外,SCO 还认为 IBM 涉嫌不正当竞争。 其实,IBM 也曾起诉 SCO ,认为该公司曾违反协议,盗用和传播了 Linux 中 IBM 提供的部分代码。而且,SCO 还专门针对 IBM 的产品和服务发起过一场名为“恐惧、不确定和怀疑”的运动。不过,IBM 还没有声明是否会重启对 SCO 的这些诉讼。 2004年的时候,SCO 曾提起对 Novell 的一个类似诉讼,当时 Novell 宣布它拥有 UNIX 系统的知识产权,而 SCO 只是被授权使用。2010年,法院裁决 Novell 拥有1995年12月之前的 UNIX 知识产权,而 SCO 则拥有之后 UNIX 系统后续开发的知识产权。这个裁决也使得 SCO 对 IBM 的一些起诉变得**其实毫无意义**。之后,UNIX 在 SCO 的破产保护案中作为资产被售卖给了其他公司,不过 SCO 申请破产保护的案子还没有尘埃落定,而它现在唯一的事情就是推动与 IBM 的官司。
301
Moved Permanently
null
5,095
Ubuntu &amp; XFCE vs Xubuntu
http://linux.about.com/od/dist/fl/Ubuntu-With-XFCE-vs-Xubuntu-Linux.htm
2015-03-21T08:23:00
[ "XFCE", "Xubuntu", "Ubuntu" ]
https://linux.cn/article-5095-1.html
Ubuntu拥有漂亮的桌面体验以及强大的应用程序。Xubuntu轻量、快速并且可定制,哪个更适合你? --- ![](/data/attachment/album/201503/21/174426lfupn0u37hig4ggn.png) 首先,这篇文章不是用来说明Ubuntu比Xubuntu更好或者Xubuntu比Ubuntu更好之类的东西。 并且,我同时也会在这篇文章中介绍Ubuntu用户如何获取基本的XFCE桌面,以及如何安装完整的Xubuntu桌面。 [Ubuntu](http://www.everydaylinuxuser.com/2014/11/an-everyday-linux-user-review-of-ubuntu.html)以及[Xubuntu](http://www.everydaylinuxuser.com/2015/01/an-everyday-linux-user-review-of.html)是针对不同目的开发的操作系统,为什么我会强调这一点,是为了说明什么时候或者为什么你应该使用Ubuntu或Xubuntu。 比较这两个操作系统就像比较[劳斯莱斯](http://exoticcars.about.com/od/overviewsofmaker1/p/RollsHistory.htm)与[保时捷](http://exoticcars.about.com/od/overviewsofmaker1/p/PorscheHistory.htm)。这两个都是很棒的车,但是如果把劳斯莱斯给一个赛车迷,他们也许会卖掉它买个其他的车,同样,如果把保时捷给舒格勋爵或者休·海夫纳这类人可能也不那么合适。 Ubuntu拥有一个适用性很强的桌面环境,叫做Unity,并且默认会安装一些很棒的Linux应用程序,包括Rhythmbox以及[LibreOffic](http://office.about.com/od/FreeOpenSourceOfficeSoftware/a/All-About-Libreoffice-4-0.htm)。Ubuntu就像是劳斯莱斯。它为舒适而生,并且尽可能的提供满足需要的漂亮的解决方案。 作为一个Ubuntu用户,就像汽车里面的乘客。你在到达目的地的过程中就可以同时把事情搞定,并且所有的事看起来都很漂亮并且很简单。 另一方面,Xubuntu采用了轻量的[XFCE桌面环境](http://linux.about.com/cs/linux101/g/xfce.htm)。内置的应用自然也是轻量级的,使用它们也可以完成工作,但是不像Ubuntu自带的应用那么完整。 XFCE桌面环境可以高度定制化,你可以把你的桌面搞成任何你想要的形式。 Xubuntu就像一个改装过的跑车。你可以把它改装成任何你想要的样子。但不是做为一名乘客,而更像是驾驶员开着它快速漂移过弯,或者小心翼翼的通过狭小的弯角。 如果你不关心如何美化或者定制桌面,并且你发现Ubuntu用起来很顺手,那么你没必要切换到Xubuntu。 但是,如果你发现Unity没办法满足你的要求,并且感觉你的计算机在运行Ubuntu时或多或少有一些性能压力,那么当然就可以考虑考虑Xubuntu。 上周我发了一篇文章介绍怎么[创建Xubuntu启动优盘](https://github.com/ZhouJ-sh/TranslateProject/blob/d91316c19c6668b82cfabf9f89e4ad07c7193202/translated/share/20150119%203%20Ways%20To%20Create%20A%20Lightweight%20And%20Persistent%20Xubuntu%20Linux%20USB%20Drive.md),并且也写了一篇[安装Xubuntu的教程](https://github.com/ZhouJ-sh/TranslateProject/blob/0c4ad0bc8e79e28c1f7f8ccf805708829baa8ea9/translated/share/20150116%20A%20Step%20By%20Step%20Guide%20To%20Installing%20Xubuntu%20Linux.md)(译者注:链接为github地址)。 不过,如果你已经安装了Ubuntu,就不用这么费事照着教程再来一遍了。你只需要继续读完这篇文章,就可以在Ubuntu里面安装一个更合适的解决方案。 那么如果你已经装了Ubuntu,如何切换到Xubuntu呢? 你需要做一个选择题。问题是,你是仅仅需要一个更轻量的、可定制化的XFCE桌面,还是同时也需要那些Xubuntu内置的轻量级应用。 先来看看这些应用吧。下面有一个列表,列出了Ubuntu和Xubuntu内置的应用程序。如果你只需要几个Xubuntu应用程序,那么我建议你只安装XFCE然后单独安装这些应用。如果你需要一半以上的应用,那就安装整个Xubuntu桌面环境吧。 **Ubuntu与Xubuntu内置应用对比**| **应用类型** | **Ubuntu** | **Xubuntu** | | 音频 | Rhythmbox | gmusicbrowser | | 视频 | Totem | Parole | | 照片管理 | Shotwell | Ristretto | | 办公 | LibreOffice | Abiword/Gnumeric | | 浏览器 | FireFox | FireFox | | Email | | Thunderbird | | 即时通讯 | Empathy | Pidgin | ### 如何在Ubuntu安装XFCE桌面环境 ![默认的XFCE桌面](/data/attachment/album/201503/20/222605laq3ofqx8hox79b9.png) 接下来,我会使用命令行工具[apt-get](http://linux.about.com/od/ubusrv_doc/a/ubusg11t01.htm)介绍在Ubuntu安装XFCE桌面的方法。 打开一个终端窗口,在Unity环境,你可以在[Dash](http://linux.about.com/od/howtos/fl/Learn-Ubuntu-The-Unity-Dash.htm)中搜索“TERM”,或者使用组合键 `CTRL+ALT+T`。 安装XFCE桌面十分简单,输入下列命令就可以了: ``` sudo apt-get update sudo apt-get install xfce4 ``` 点击右上角设置图标然后登出,来切换到[XFCE桌面环境](http://linux.about.com/cs/linux101/g/xfce.htm)。 切换到登入界面以后,点击在你用户名旁边的小Ubuntu图标,就会出现Unity桌面和XFCE桌面的选项。切换到XFCE然后正常登录。 系统会显示一个消息,提示你是否使用默认的面板布局或者使用单独的面板。 [最新版本的Xubuntu](http://www.everydaylinuxuser.com/2015/01/an-everyday-linux-user-review-of.html)在顶部包含一个单独的面板,不过我更喜欢双面板,顶部一个标准面板,底部一个常用程序的停靠面板。 需要注意的是,XFCE桌面菜单系统和Xubuntu的菜单有些差异,除非你安装[一个更好的菜单系统](http://xubuntugeek.blogspot.co.uk/2013/12/how-to-install-whisker-menu-in-xubuntu.html),设置两个面板或许是个更好的选择。 这取决与选择的是哪个选项,不过没关系,如果后面你改变了主意,也可以很容易重新设置。XFCE可以进行深度的自定义。 ### 不重新安装的情况下,如何从Ubuntu切换到Xubuntu ![从Ubuntu切换到Xubuntu](/data/attachment/album/201503/20/222609dtbk3g839rtdd9tk.png) 如果你想全都使用Xubuntu的东西,但是又不想按照那些介绍重新安装系统的话,看看下面的东西。 通过搜索“TERM”,或者组合键`CTRL+ALT+T`,打开一个终端窗口。 在终端输入如下命令: ``` sudo apt-get update sudo apt-get install xubuntu-desktop ``` 花费的时间会比安装XFCE桌面长一些,但是要比重新安装Xubuntu系统要快。 安装完成以后,点击右上角图标,然后登出。 在登录界面,点击Ubuntu图标。会出现Unity和Xubuntu选项。点击Xubuntu,然后正常登入。 Xubuntu桌面就会显示出来啦。 这里会有一些差异。菜单仍然是XFCE菜单,而不是Xubuntu菜单。某些图标也不会出现在顶部面板中。但是这些小问题都不足以让我们花时间卸载Ubuntu然后重装Xubuntu。 下一篇文章中,我会介绍如何自定义Xubuntu以及XFCE桌面。 --- via : <http://linux.about.com/od/dist/fl/Ubuntu-With-XFCE-vs-Xubuntu-Linux.htm> 作者:[Gary Newell](http://linux.about.com/bio/Gary-Newell-132058.htm) 译者:[zhouj-sh](https://github.com/Zhouj-sh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,096
如何使用 backupninja 来备份 Debian 系统
http://xmodulo.com/backup-debian-system-backupninja.html
2015-03-21T10:03:00
[ "备份", "backupninja" ]
https://linux.cn/article-5096-1.html
小心谨慎或灾难体验会让每一个系统管理都认识到频繁的系统备份的重要性。你可以通过编写管用的旧式 shell 脚本,或使用一个(或几个)适合这项工作的备份工具来完成备份任务。因此,当你要实施一个备份解决方案时,你了解的备份工具越多,你做出的决策就会越明智。 在这篇文章中,我们将为你介绍 [backupninja](https://labs.riseup.net/code/projects/backupninja) ,这是一个轻量且易于配置的系统备份工具。在诸如 **rdiff-backup**, **duplicity**, **mysqlhotcopy** 和 **mysqldump** 等程序的帮助下, Backupninja 可以提供常用的备份功能,如执行远程的、安全的和增量式的文件系统备份,加密备份以及 MySQL/MariaDB 数据库备份。你可以选择性地开启使用 Email 状态报告功能,也可以对一般的硬件和系统的信息进行备份。 backupninja 的一个关键功能是它拥有一个内建的基于控制台的向导程序(被称为 **ninjahelper**),而后者允许你为不同的备份情景轻松地创建配置文件。 ![](/data/attachment/album/201503/20/230658xqfzb2lx2k290xxb.jpg) (题图来自:blogspot.com) 如果非要说的话,backupninja 的缺点是:为了充分使用其所有的功能,它要求安装一些其他“助手”程序。尽管 backupninja 有针对基于 Red Hat(红帽)的发行版本的 RPM 安装包,但 backupninja 针对 Debian 及其衍生发行版本的依赖进行了优化。所以不建议在基于 Red Hat 的系统上尝试 backupninja 。 在这篇教程中,我们将介绍如何在基于 Debian 的发行版本上安装 backupninja 。 ### 安装 Backupninja 以 root 账户来运行下面的命令: ``` # aptitude install backupninja ``` 在安装的过程中,有几个文件和目录将被创建: * **/usr/sbin/backupninja** 是个 bash shell 的主脚本; * **/etc/cron.d/backupninja**, 默认情况下,设置 cron 任务来每隔一个小时运行上面的主脚本; * **/etc/logrotate.d/backupninja** 截断由 backupninja 程序产生的日志; * **/etc/backup.d/** 是备份操作的配置文件驻留的目录; * **/etc/backupninja.conf** 是包含一般选项的主配置文件。这个文件带有良好的注释且详细解释了每个选项的含义; * **/usr/share/backupninja** 是那些 backupninja 所使用的脚本所处的目录。这些脚本文件负责执行实际的工作。在这个目录中,你还可以找到 `.helper` 文件,它们可以被用来配置和设定 ninjahelper 的菜单; * **/usr/share/doc/backupninja/examples** 含有操作配置文件(即通过 ninjahelper 产生的文件)的模板。 ### 首次运行 Ninjahelper 当我们尝试启动 ninjahelper 时,我们可以看到可能需要一个内部依赖程序。假如系统进行了提示,请输入 “yes” 并敲下回车键来安装 dialog(一个用于从 shell 脚本中显示友好对话框的工具)。 ![](/data/attachment/album/201503/20/230751omw0yr1j18t9a1y4.jpg) 当你在键入 yes 后再敲回车键时,backupninja 将会安装 dialog,一旦安装完成,将呈现出下面的截屏: ![](/data/attachment/album/201503/20/230757hfyefp4ee5s44e4b.jpg) #### 案例 1: 备份硬件和系统信息 在启动了 ninjahelper 之后,我们将创建一个新的备份操作: ![](/data/attachment/album/201503/20/230804jtfqoq33lmtqt3mu.jpg) 如果必要的助手程序没有被安装,下面的截屏将会呈现在我们眼前。假如这些软件包已经在你的系统上安装了,请跳过这一步。 ![](/data/attachment/album/201503/20/230808jz541iix51w8ewd5.jpg) 接下来的一步需要你选取相关条目来作为此次备份任务的一部分。前四个条目已经默认被选上了,但你可以通过在条目上按空格键来撤消选择。 ![](/data/attachment/album/201503/20/230813do1yjakekfe3e93e.jpg) 一旦你完成了上面的步骤,按 OK 选项来继续。接着你将能够选择是愿意使用默认的配置文件(/etc/backup.d/10.sys)来完成这次备份操作,还是创建一个新的配置文件。若为后者,一个含有与默认配置文件内容相同的文件将会在相同的目录下被创建,但它被命名为 11.sys,后续的备份操作将会创建类似的文件(注:只不过命名的序号不同)。需要说明的是一旦这个新的配置文件被创建,你便可以使用你喜爱的文本编辑器来编辑该文件。 ![](/data/attachment/album/201503/20/230814raukkmqtg2qpcham.png) #### 案例 2: 一个远程目录的增量式 Rsync 拉取备份 正如你最有可能知道的那样, rsync 被广泛地用于通过网络同步文件或文件夹。在接下来的例子中,我们将讨论一个使用硬链接来为一个远程目录做增量式拉取备份的方法,它被用来保存历史数据以及在我们本地的文件服务器中恢复这些历史数据。这个方法将帮助我们节省空间并增强位于服务器端的安全性。 **步骤 1**:编写一个带有如下内容的自定义脚本,放在 `/etc/backup.d`,并将它的权限设置为 600 。需要说明的是,除了一般的配置文件,这个目录可能还包含当 backupninja 执行时你想运行的一些脚本文件,它们可以发挥出位于主配置文件中的变量的优势。 ``` # REMOTE USER user=root # REMOTE HOST host=dev1 # REMOTE DIRECTORY remotedir=/home/gacanepa/ # LOCAL DIRECTORY localdir=/home/gacanepa/backup.0 # LOCAL DIRECTORY WHERE PREVIOUS BACKUP WAS STORED localdirold=/home/gacanepa/backup.1 mv $localdir $localdirold # RSYNC rsync -av --delete --recursive --link-dest=$localdirold $user@$host:$remotedir $localdir ``` 在上面的配置中, rsync 的 ‘--link-dest’ 选项的作用是为位于 $localdir-old 目录中那些没有改变的文件(包含所有属性) 硬链接到目标目录($localdir)。 **步骤 2**:在 backupninja 第一次运行之前,上层目录(这个例子中指的是 /home/gacanepa) 是空的。第一次我们执行下面的命令: ``` # backupninja -n ``` backup.0 目录就被创建了,并在接下来的过程中,它的名称将会被更改为 backup.1。 当我们第二次运行 backupninja 时, backup.0 将会被重新创建,而 backup.1 保持不动。 ![](/data/attachment/album/201503/20/230820w02yhv62pihlhhf7.jpg) **步骤 3**: 确保 backup.1 里面的文件硬链接到 backup.0 里的文件,我们可以通过比较文件的 inode(i 节点)数和目录的大小来达到此目的。 ![](/data/attachment/album/201503/20/230820sytt0ep1btbweei5.jpg) ### 总结 Backupninja 不仅是一个经典的备份工具,它也是一个易于配置的实用程序。你可以通过编写你自己的控制脚本,用放在 `/etc.backup.d` 中的不同的配置文件来运行 backupninja 。甚至你还可以为 ninjahelper 编写助手程序,并将其包括在 ninjahelper 的主界面上。 例如,假如你在 `/usr/share/backupninja`目录中创建了一个名为 xmodulo 的控制脚本,它将自动运行那些位于 `/etc/backup.d` 目录中以 .xmodulo 为后缀的每个文件。如果你决定添加你的 xmodulo 控制脚本到 ninjahelper 中, 你可以编写相应的助手程序,即 xmodulo.helper 。另外,假如你想 让 backupninja 运行其它的脚本,只需把它添加到 `/etc/backup.d` 目录中就可以了。 欢迎使用下面的评论框来留下你的评论、问题或建议。听到你的回应将会使我们很高兴。 --- via: <http://xmodulo.com/backup-debian-system-backupninja.html> 作者:[Gabriel Cánepa](http://xmodulo.com/author/gabriel) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,097
如何在 Linux 上使用 BackupPC 来架设跨平台的备份服务器
http://xmodulo.com/backuppc-cross-platform-backup-server-linux.html
2015-03-23T09:46:00
[ "备份", "BackupPC" ]
https://linux.cn/article-5097-1.html
也许你没有从我先前关于 [backupninja](http://linux.cn/article-5096-1.html) 和 [backup-manager](http://linux.cn/article-4586-1.html) 的两篇文章中发现,我是一个超级备“粉”。当提到备份,我宁愿备份的太多而不希望备份不足,因为如果我们有需要的话,你将会感激你为重要数据生成额外的拷贝所付出的时间和精力。 在这篇文章中,我将向你介绍 [BackupPC](http://backuppc.sourceforge.net/),一个跨平台的备份服务器软件,它可以通过网络为 Linux,Windows 和 MacOS 等系统上的客户端主机拉取备份。BackupPC 添加了一系列的特点使得管理备份变为一件快乐的事。 ![](/data/attachment/album/201503/20/235236goipii0u37jybbuo.jpg) ### BackupPC 的特点 BackupPC 自带有一个健壮的 Web 界面,允许你以集中化的方式来收集和管理其他远程客户端主机上的备份。通过使用它的 Web 界面,你可以检查日志和配置文件、为其他远程主机启动/取消/安排备份任务以及可视化备份任务的当前状态。你也可以非常容易地浏览归档的文件以及从备份的归档中恢复单个文件或整个备份。要恢复单个文件,你可以直接通过 Web 界面来下载任何先前备份的文件。不仅如此,客户端主机并不需要安装特别的客户端软件。在 Windows 客户端上, 使用的是原生的 SMB 协议,而对于 \*nix 客户端,你将使用 `rsync` 或 通过 SSH, RSH 或 NFS 来使用 `tar` 。 ### 安装 BackupPC 在 Debian,Ubuntu 和它们的衍生版本上,运行下面的命令: ``` # aptitude install backuppc ``` 在 Fedora上, 使用 `yum` 命令。请注意软件包名字对大小写敏感。 在 CentOS/RHEL 6 上,首先要启用 [EPEL 软件仓库](http://linux.cn/article-2324-1.html)。在 CentOS/RHEL 7 上,请替代启用 [Nux Dextop](http://linux.cn/article-3889-1.html) 软件仓库。然后接着使用 `yum` 命令: ``` # yum install BackupPC ``` 同往常一样,这两种包管理系统都会自动解决依赖问题。另外,作为安装过程中的一部分,你可能需要新配置或修改配置用于图形用户界面的 Web 服务器。下面的截图来自于 Debian 系统: ![](/data/attachment/album/201503/20/235239b4atzr453axhrhfr.jpg) 通过空格键来确定你的选择,然后使用 tab 键移动到 Ok 选项并敲回车键。 接着类似于下面的截屏将会呈现在你眼前,通知你创建了一个用来管理 BackupPC 的名为 ‘backuppc’的管理员用户以及相应的密码(如果你需要,这个密码以后可以更改)。这里需要注意的是:这里创建了同样名为 ‘backuppc’的 HTTP 账户和常规的 Linux 账户,它们使用相同的密码。需要前者的目的是来访问受保护的 BackupPC 的 Web 界面,而后者则是为了通过 SSH 来使用 `rsync` 来执行备份任务。 ![](/data/attachment/album/201503/20/235241zl2i9ueazf8wweuz.jpg) 你可以使用下面的命令来更改 HTTP 账户 ‘backuppc’ 的默认密码: ``` # htpasswd /path/to/hash/file backuppc ``` 至于常规的 ‘backuppc’ [Linux](http://xmodulo.com/recommend/linuxguide)账户,可以使用 `passwd`命令来更改它的默认密码: ``` # passwd backuppc ``` 需要提及的是:安装过程中会自动创建 Web 和程序的配置文件。 ### 启动 BackupPC 并设置备份 首先,打开一个浏览器窗口并指向 http://<服务器名称或 IP 地址>/backuppc/ 。当弹出提示框时,输入先前向你创建的默认 HTTP 用户凭据(注:即用户名 backuppc 和相应的默认密码)。假如认证成功,你就会被带入到 Web 界面的主页: ![](/data/attachment/album/201503/20/235245x9xlmwljccb6wtb9.jpg) 你想做的第一件事最有可能是通过新增一个客户端主机来备份。进入任务窗格中的 “编辑主机”选项。我们将添加两个客户端主机: * Host #1: CentOS 7 [IP 192.168.0.17] * Host #2: Windows 7 [IP 192.168.0.103] 我们将通过 SSH 使用 `rsync`来备份 CentOS 主机,使用 SMB 来备份 Windows 主机。在执行备份之前,我们需要向我们的 CentOS 主机设置 [基于密钥认证](http://xmodulo.com/how-to-enable-ssh-login-without.html) 以及在我们的 Windows 主机中设置一个共享目录。 下面是关于如何为一个远程 CentOS 主机设置基于密钥认证的指导。我们创建 ‘backuppc’ 用户的 RSA 密钥对,并将其公钥传输给 CentOS 主机上的 root 账户。 ``` # usermod -s /bin/bash backuppc # su - backuppc # ssh-keygen -t rsa # ssh-copy-id root@192.168.0.17 ``` 当弹出提示框时,键入 yes 并为 192.168.0.17 键入 root 用户的密码: ![](/data/attachment/album/201503/20/235302xjv7ddrgjdznjos3.jpg) 你需要一个远程的 CentOS 主机的 root 权限,以获得在该主机中的文件系统中写权限,以防要恢复的备份文件或目录的所有者为 root 账户。 一旦 CentOS 和 Windows 主机都准备完毕,使用 Web 界面将它们添加到 BackupPC: ![](/data/attachment/album/201503/20/235304rdi5npvpnpvssz5o.jpg) 下一步更改每个主机的备份设置: ![](/data/attachment/album/201503/20/235307fjtg4akgb7jee4bg.jpg) 接下来的图片展示了 Windows 主机的备份设置: ![](/data/attachment/album/201503/20/235313xeb75klfze5223zv.jpg) 而接着的截图展示了 CentOS 主机的备份设置: ![](/data/attachment/album/201503/20/235316uz36bpb9ufupubme.jpg) ### 开始一个备份任务 为了开始备份,到每个主机的设定选项,然后点击“开始全备份”: ![](/data/attachment/album/201503/20/235322dkzq5zj0pmzj8q6a.jpg) 在任何时候,你都可以通过点击如上图展示的每个主机的备份主页来查看备份任务的状态。假如因为某些原因备份失败,在主机菜单中将会出现一个指向包含错误信息的网页的链接。当一个备份任务成功完成后,在服务器的 /var/lib/backuppc/pc 目录下会创建一个命名为主机名或 IP 地址的目录。 ![](/data/attachment/album/201503/20/235325h6eeuzwnewuxwq6n.jpg) 我们也可以随意地在命令行中浏览这个目录中的文件,但存在一个更加简单的方式来查找和恢复这些文件。 ### 恢复备份 要浏览这些保存的文件,进入每个主机的主菜单下的 “浏览备份”选项,你可以一目了然地看到目录和文件,并选择那些你想恢复的文件。另外,你还可以通过点击文件来使用默认程序打开文件或右击文件并选择“另存为”来下载该文件到你当前的机器上: ![](/data/attachment/album/201503/20/235331nr66znzru5bbir6s.jpg) 如若你想,你可以下载一个包含所有你想备份的内容的 zip 或 tar 文件: ![](/data/attachment/album/201503/20/235343l7hihhqyxohmoz9q.jpg) 或只是恢复文件: ![](/data/attachment/album/201503/20/235350yz97wkg5hhkwqkhh.jpg) ### 总结 有句俗话说,"越简单,越好",而这正是 BackupPC 所提供的东西。在 BackupPC 中,你将不仅找到了一个备份工具,而且还找到了一个无需任何客户端应用来在几个不同的操作系统中管理你的备份的方法。我相信这就有足够的理由让你去尝试一下。 欢迎使用下面的评论框来留下你的评论和问题,假如你有的话。我总是乐于听取读者想说的话! --- via: <http://xmodulo.com/backuppc-cross-platform-backup-server-linux.html> 作者:[Gabriel Cánepa](http://xmodulo.com/author/gabriel) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,099
20个 Unix/Linux 命令技巧
http://www.cyberciti.biz/open-source/command-line-hacks/20-unix-command-line-tricks-part-i/
2015-03-21T19:33:00
[ "命令行", "终端" ]
https://linux.cn/article-5099-1.html
让我们用**这些Unix/Linux命令技巧**开启新的一年,提高在终端下的生产力。我已经找了很久了,现在就与你们分享。 ![](/data/attachment/album/201503/21/193317jgu1112xvxktg1xk.jpg) ### 删除一个大文件 我在生产服务器上有一个很大的200GB的日志文件需要删除。我的rm和ls命令已经崩溃,我担心这是由于巨大的磁盘IO造成的,要删除这个大文件,输入: ``` > /path/to/file.log # 或使用如下格式 : > /path/to/file.log # 然后删除它 rm /path/to/file.log ``` ### 如何记录终端输出? 试试使用script命令行工具来为你的终端输出创建输出记录。 ``` script my.terminal.sessio ``` 输入命令: ``` ls date sudo service foo stop ``` 要退出(结束script会话),输入 *exit* 或者 *logout* 或者按下 *control-D*。 ``` exit ``` 要浏览输入: ``` more my.terminal.session less my.terminal.session cat my.terminal.session ``` ### 还原被删除的 /tmp 文件夹 我在文章[Linux和Unix shell,我犯了一些错误](http://www.cyberciti.biz/tips/my-10-unix-command-line-mistakes.html)。我意外地删除了/tmp文件夹。要还原它,我需要这么做: ``` mkdir /tmp chmod 1777 /tmp chown root:root /tmp ls -ld /tmp ``` ### 锁定一个文件夹 为了我的数据隐私,我想要锁定我文件服务器下的/downloads文件夹。因此我运行了: ``` chmod 0000 /downloads ``` root用户仍旧可以访问,而ls和cd命令则不工作。要还原它用: ``` chmod 0755 /downloads ``` ### 在vim中用密码保护文件 害怕root用户或者其他人偷窥你的个人文件么?尝试在vim中用密码保护,输入: ``` vim +X filename ``` 或者,在退出vim之前使用:X 命令来加密你的文件,vim会提示你输入一个密码。 ### 清除屏幕上的乱码 只要输入: ``` reset ``` ### 易读格式 传递*-h*或者*-H*(和其他选项)选项给GNU或者BSD工具来获取像ls、df、du等命令以易读的格式输出: ``` ls -lh # 以易读的格式 (比如: 1K 234M 2G) df -h df -k # 以字节、KB、MB 或 GB 输出: free -b free -k free -m free -g # 以易读的格式输出 (比如 1K 234M 2G) du -h # 以易读的格式显示文件系统权限 stat -c %A /boot # 比较易读的数字 sort -h -a file # 在Linux上以易读的形式显示cpu信息 lscpu lscpu -e lscpu -e=cpu,node # 以易读的形式显示每个文件的大小 tree -h tree -h /boot ``` ### 在Linux系统中显示已知的用户信息 只要输入: ``` ## linux 版本 ## lslogins ## BSD 版本 ## logins ``` 示例输出: ``` UID USER PWD-LOCK PWD-DENY LAST-LOGIN GECOS 0 root 0 0 22:37:59 root 1 bin 0 1 bin 2 daemon 0 1 daemon 3 adm 0 1 adm 4 lp 0 1 lp 5 sync 0 1 sync 6 shutdown 0 1 2014-Dec17 shutdown 7 halt 0 1 halt 8 mail 0 1 mail 10 uucp 0 1 uucp 11 operator 0 1 operator 12 games 0 1 games 13 gopher 0 1 gopher 14 ftp 0 1 FTP User 27 mysql 0 1 MySQL Server 38 ntp 0 1 48 apache 0 1 Apache 68 haldaemon 0 1 HAL daemon 69 vcsa 0 1 virtual console memory owner 72 tcpdump 0 1 74 sshd 0 1 Privilege-separated SSH 81 dbus 0 1 System message bus 89 postfix 0 1 99 nobody 0 1 Nobody 173 abrt 0 1 497 vnstat 0 1 vnStat user 498 nginx 0 1 nginx user 499 saslauth 0 1 "Saslauthd user" ``` ### 我如何删除意外在当前文件夹下解压的文件? 我意外在/var/www/html/而不是/home/projects/www/current下解压了一个tarball。它搞乱了/var/www/html下的文件,你甚至不知道哪些是误解压出来的。最简单修复这个问题的方法是: ``` cd /var/www/html/ /bin/rm -f "$(tar ztf /path/to/file.tar.gz)" ``` ### 对top命令的输出感到疑惑? 正经地说,你应该试一下用htop代替top: ``` sudo htop ``` ### 想要再次运行相同的命令 只需要输入!!。比如: ``` /myhome/dir/script/name arg1 arg2 # 要再次运行相同的命令 !! ## 以root用户运行最后运行的命令 sudo !! ``` !!会运行最近使用的命令。要运行最近运行的以“foo”开头命令: ``` !foo # 以root用户运行上一次以“service”开头的命令 sudo !service ``` !$用于运行带上最后一个参数的命令: ``` # 编辑 nginx.conf sudo vi /etc/nginx/nginx.conf # 测试 nginx.conf /sbin/nginx -t -c /etc/nginx/nginx.conf # 测试完 "/sbin/nginx -t -c /etc/nginx/nginx.conf"你可以用vi再次编辑这个文件了 sudo vi !$ ``` ### 在终端上提醒你必须得走了 如果你需要提醒离开你的终端,输入下面的命令: ``` leave +hhmm ``` 这里: * **hhmm** - 时间是以hhmm的形式,hh表示小时(12时制或者24小时制),mm代表分钟。所有的时间都转化成12时制,并且假定发生在接下来的12小时。 ### 甜蜜的家 想要进入刚才进入的地方?运行: ``` cd - ``` 需要快速地回到你的家目录?输入: ``` cd ``` 变量*CDPATH*定义了目录的搜索路径: ``` export CDPATH=/var/www:/nas10 ``` 现在,不用输入cd \*/var/www/html/ 这样长了,我可以直接输入下面的命令进入 /var/www/html: ``` cd html ``` ### 在less浏览时编辑文件 要编辑一个正在用less浏览的文件,可以按下v。你就可以用变量$EDITOR所指定的编辑器来编辑了: ``` less *.c less foo.html ## 按下v键来编辑文件 ## ## 退出编辑器后,你可以继续用less浏览了 ## ``` ### 列出你系统中的所有文件和目录 要看到你系统中的所有目录,运行: ``` find / -type d | less # 列出$HOME 所有目录 find $HOME -type d -ls | less ``` 要看到所有的文件,运行: ``` find / -type f | less # 列出 $HOME 中所有的文件 find $HOME -type f -ls | less ``` ### 用一条命令构造目录树 你可以用mkdir加上-p选项一次创建一颗目录树: ``` mkdir -p /jail/{dev,bin,sbin,etc,usr,lib,lib64} ls -l /jail/ ``` ### 将文件复制到多个目录中 不必运行: ``` cp /path/to/file /usr/dir1 cp /path/to/file /var/dir2 cp /path/to/file /nas/dir3 ``` 运行下面的命令来复制文件到多个目录中: ``` echo /usr/dir1 /var/dir2 /nas/dir3 | xargs -n 1 cp -v /path/to/file ``` 留下[创建一个shell函数](http://bash.cyberciti.biz/guide/Writing_your_first_shell_function)作为读者的练习。 ### 快速找出两个目录的不同 diff命令会按行比较文件。但是它也可以比较两个目录: ``` ls -l /tmp/r ls -l /tmp/s # 使用 diff 比较两个文件夹 diff /tmp/r/ /tmp/s/ ``` [![Fig. : Finding differences between folders](/data/attachment/album/201503/21/193319hl87wuvkvgk6l7hk.jpg)](http://www.cyberciti.biz/open-source/command-line-hacks/20-unix-command-line-tricks-part-i/attachment/differences-between-folders/) *图片: 找出目录之间的不同* ### 文本格式化 你可以用fmt命令重新格式化每个段落。在本例中,我要用分割超长的行并且填充短行: ``` fmt file.txt ``` 你也可以分割长的行,但是不重新填充,也就是说分割长行,但是不填充短行: ``` fmt -s file.txt ``` ### 可以看见输出并将其写入到一个文件中 如下使用tee命令在屏幕上看见输出并同样写入到日志文件my.log中: ``` mycoolapp arg1 arg2 input.file | tee my.log ``` tee可以保证你同时在屏幕上看到mycoolapp的输出并写入文件 my.log。 --- via: <http://www.cyberciti.biz/open-source/command-line-hacks/20-unix-command-line-tricks-part-i/> 作者:[nixCraft](http://www.cyberciti.biz/tips/about-us) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,100
Linux 有问必答:如何使用yum来下载RPM包而不进行安装
http://ask.xmodulo.com/yum-download-rpm-package.html
2015-03-22T08:39:00
[ "yum", "RPM" ]
/article-5100-1.html
> > **问题**:我想从Red Hat 的标准仓库中下载一个RPM包,我能使用yum命令来下载一个RPM包但是不进行安装吗? > > > yum是基于Red Hat的系统(如CentOS、Fedora、RHEl)上的默认包管理器。使用yum,你可以安装或者更新一个RPM包,并且他会自动解决包依赖关系。但是如果你只想将一个RPM包下载到你的系统上该怎么办呢? 例如,你可能想要获取一些RPM包在以后使用,或者将他们安装在另外的机器上。 这里说明了如何从yum仓库上下载一个RPM包。 ![](/data/attachment/album/201503/21/194242ksfg9gioungo89q9.png) ### 方法一:yum yum命令本身就可以用来下载一个RPM包,标准的yum命令提供了`--downloadonly(只下载)`的选项来达到这个目的。 ``` $ sudo yum install --downloadonly <package-name> ``` 默认情况下,一个下载的RPM包会保存在下面的目录中: ``` /var/cache/yum/x86_64/[centos/fedora-version]/[repository]/packages ``` 以上的[repository]表示下载包的来源仓库的名称(例如:base、fedora、updates) 如果你想要将一个包下载到一个指定的目录(如/tmp): ``` $ sudo yum install --downloadonly --downloaddir=/tmp <package-name> ``` 注意,如果下载的包包含了任何没有满足的依赖关系,yum将会把所有的依赖关系包下载,但是都不会被安装。 另外一个重要的事情是,在CentOS/RHEL 6或更早期的版本中,你需要安装一个单独yum插件(名称为 yum-plugin-downloadonly)才能使用`--downloadonly`命令选项: ``` $ sudo yum install yum-plugin-downloadonly ``` 如果没有该插件,你会在使用yum时得到以下错误: ``` Command line error: no such option: --downloadonly ``` ![](/data/attachment/album/201503/21/194249c7rk0qrr0kfmwxrr.jpg) ### 方法二: Yumdownloader 另外一个下载RPM包的方法就是通过一个专门的包下载工具--yumdownloader。 这个工具是yum工具包(包含了用来进行yum包管理的帮助工具套件)的子集。 ``` $ sudo yum install yum-utils ``` 下载一个RPM包: ``` $ sudo yumdownloader <package-name> ``` 下载的包会被保存在当前目录中。你需要使用root权限,因为yumdownloader会在下载过程中更新包索引文件。与yum命令不同的是,任何依赖包不会被下载。 --- via: <http://ask.xmodulo.com/yum-download-rpm-package.html> 译者:[theo-l](https://github.com/theo-l) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /yum-download-rpm-package.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c4070>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)"))
null
5,102
Ubuntu 15.04 终于可以让你将菜单设置为 ‘始终可见’
http://www.omgubuntu.co.uk/2015/01/ubuntu-15-04-always-show-menu-bar-option
2015-03-22T11:07:28
[ "Ubuntu", "菜单", "Unity" ]
https://linux.cn/article-5102-1.html
**如果你不喜欢 Unity 的全局菜单在你的鼠标离开后就淡出你的视野,那么在 Ubuntu 15.04 稍微做点工作就可以留住菜单。** ![](/data/attachment/album/201503/22/110732p7lnrvx777n9r1r7.png) 最新的Ubuntu 15.04的Unity界面在“提议(Proposed)”通道提供了一个选项,**使应用程序菜单在Ubuntu中始终可见**。 这是个不会淡出,也不会过段时间就消失的菜单。 最大的缺点是它目前只能通过`dconf`来控制,而不是常规的面向用户的选项设置。 我希望(如果预计没有的话)在之后的开发中,能有一个设置该特性的选项加入到Ubuntu的【系统设置】>【外观】部分。 现在,如果你使用的是 Ubuntu15.04,并启用了“提议(Proposed)”的更新通道后,你可以在dconf 的com>canonical>Unity>‘always show menus’ 中找到这个开关。 ### 迟到总比没有要好? 开发者们计划在Ubuntu 14.04 LTS的下一个SRU中反向移植这个选项(假设在测试阶段没有任何意外发生)。 本地集成菜单(LIM)在Ubuntu 14.04 LTS 中的首次亮相就赢得了赞誉,其被广泛认为在那些喜欢隐藏方式的与那些不喜欢必须使用鼠标和触摸板的人之间的最佳的折衷方案。 虽然在Unity方面本地集成菜单减少了不少批评意见,不过默认的“淡入/淡出”行为总是还让人不爽。 在Ubuntu 过去的几个版本中已经能够看到他们在积极解决早期的用户体验中的几个痛点。经过了几年,在TODO列表中[我们去年终于看到了本地集成菜单](http://www.omgubuntu.co.uk/2014/02/locally-integrated-menus-ubuntu-14-04),以及通过[点击应用图标来实现Unity 启动器中应用的最小化及恢复的选项](http://www.omgubuntu.co.uk/2014/03/minimize-click-launcher-option-ubuntu-14-04)。 一年以来我们终于看到了一个使应用程序菜单始终显示的选项,无论我们的鼠标在哪里。迟来总比没有好,对不对? --- via: <http://www.omgubuntu.co.uk/2015/01/ubuntu-15-04-always-show-menu-bar-option> 作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[JeffDing](https://github.com/JeffDing) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,103
10种将开源用于商业的最佳途径
http://www.techrepublic.com/blog/10-things/10-best-uses-for-open-source-software-in-the-business-world/
2015-03-23T08:42:00
[ "开源", "FOSS", "商业" ]
https://linux.cn/article-5103-1.html
> > 开源为大大小小的商业带来了一些显著的效益 -- 但是你可能会对某些用途感到惊讶。 > > > ![](/data/attachment/album/201503/22/114343v7axe4x0mjiitqiq.jpg) 技术上已经发生了一些必然性的改变。举个例子,开源软件以它的方式进入到了你的工作之中。10 年前,这也许还能称为一个问题。现在呢?则已经无法避免开源技术的使用 -- 也没有理由要去避免。有如此多强大(和必需的)的方方面面技术,开源在许多方面已经成为了技术的救世主。但是你哪一块的工作最适合开源软件呢?当然,这个问题的答案会因公司而异。然而许多的应用几乎可以适用于每个场景中。 让我们来看看这10种可能是最佳的使用方法,它们可以帮助你的公司成长,带给你从未体验过的灵活性与可靠性,或者仅仅是帮你节省一笔可观的预算。 ### 1: 服务器软件 如果你还在微软的 IIS 平台苦苦挣扎,那么你需要体验一下 Apache。这款旗舰级开源软件是这个星球上使用最广泛的网页服务器软件之一。Apache 免费、极其可靠、易于管理,而且不像 IIS 一样需要大量的资源。然而,开源并不局限于网页服务器。如果你需要在公司内使用 SMB 来共享资源,可以试试 Samba, Samba 4甚至集成了活动目录(AD),所以你不需要担心在Samba服务器上建立单独的用户账号。 ### 2: 开发 用开源开发是很简单的事。PHP,Rails,Perl -- 开源上面的开发语言和开发的工具(从集成开发环境到调试)都很多。为开源或者开源工具做开发可以有很多种选择(如同使用商业软件开发一样)。开源软件与商业软件最大的不同之处在于开源可以接触到软件源代码。在自由开源软件(FOSS,free open source software)的世界里,代码都是公开的。对许多开发者来说,Linux操作系统有他们开发和构建所需要的一切(特别那些没有一个成熟环境来写代码的人而言)。如果你需要图形用户界面(GUI)的开发工具,开源也能满足你。 ### 3: 安全 通往安全的道路是充满挑战的,但还是很多途径可以达到。你可以选择“安全盒子”的解决方案,跟随Cisco(一个可靠的解决方案)的节奏,或者你可以借助iptables打造最适合你需求的安全。是的,开源的安全之路会需要更多的时间去配置(有很高的学习壁垒),但是结果通常是不错的。这里甚至不强调一种观点,就一般来说,在桌面上使用开源比起大多数封闭的系统而言是一个更安全的平台。在桌面上部署Linux,你的安全痛点会大大降低。 ### 4: 桌面 Linux 桌面是大多数人不认可的地方。尽管如此,你必须考虑一个事实,那就是你每天的工作流程已经经历了一个主要的思维模式的转换。我们现在做的大部分事情都是通过网络浏览器。那么为什么不将Linux部署到桌面上呢?不但可以能做如今要做的许多工作,而且不用遭受病毒,恶意软件和能破坏系统的更新。它不完美 -- 但哪个平台敢说完美?但是它很强大,最后,还可以节省你的开支。这是一个双赢的结局。 ### 5: 工作流程 每一种工作都依赖于工作流程。对于某些工作来说,一个流畅的工作流程又取决于所用的工具。开源已经登上这个舞台了。CRM(客户关系管理),HRM(人力资源管理),ERP(企业资源计划),BI(商业智能),BPM(业务流程管理) …… 只要你叫得出名字,开源就可以做到几乎你能想到的每一种可能 -- 并且干得不错。借助于[Pentaho](http://community.pentaho.com/), [Collabtive](http://collabtive.o-dyn.de/)和[SugarCRM](http://www.sugarcrm.com/), 开源可以在任何时候与最新的源工具保持同步。 ### 6: 协作 没有一起合作项目的能力,你的员工就不能干好工作。所以你选择的协作工具是十分重要的。你会在开源的世界里发现大量的优质协作工具。[Cyn.in 社区版](http://cynapse.com/cyn-in/), [Zimbra 开源版](https://www.zimbra.com/open-source)和[Kolab](http://kolab.org/)都是不错的协作工具,但这仅仅是开源世界里的三个代表而已。 ### 7: 大数据 以前说到大数据的时候,往往不会想到开源。多亏了[SUSE](http://www.suse.org/)的努力,大数据和开源现在可以携手共进了。许多如内存数据和内核热补丁的发明创建,使得开源成为大数据一个理想的解决方案。它可以完美地满足大数据在平台上所需的大量要求,而封闭的软件则达不到如此灵活的水平。 ### 8: 云 云的主要玩家都是开源的。[Red Hat](http://www.redhat.com/), [Ubuntu](http://www.ubuntu.com/), [SUSE](http://www.suse.com/), [Amazon](http://aws.amazon.com/ec2/), [Rackspace](http://www.rackspace.com/cloud) -- 他们都提供云服务,而且认为开源是云配置的最好解决方案。但是,如果你不想用大公司的服务,仍然有很多后起之秀如[OwnCloud](https://owncloud.org/),你可以选择OwnCloud的托管云方案,或者建立自己的一套。 ### 9: 多媒体 如果你的公司做播客或为产品发布制作视频,开源可以为你提供服务。借助像[Audacity](http://audacity.sourceforge.net/)和[OpenShot](http://www.openshot.org/)这样的工具,你可以对音频和视频做你需要的任何处理 -- 而且十分的廉价。实际上,你会感觉到很难再去找到比Audacity更好的播客工具,或者比OpenShot更易用的视频编辑器。没有太大的学习壁垒,或者闭源软件工具所要求的高额费用,开源的软件在帮助你创造专业水准的作品方面已经做得很好了。 ### 10: 电子商务 如果你做在线销售,如果不尝试一下像[PrestaShop](https://www.prestashop.com/)之类的工具,你就太懈怠了。PrestaShop是最强大的电子商务解决方案之一,易于获取 -- 不需要许可证。 PrestaShop有你可能想要的所有功能(而且有些你可能都没有想过),这个开源平台已经在任何水平上超出了电子商务的范畴。 ### FOSS 之于商业 开源已经不再局限于商业交流的范围了。在许多情况下,FOSS已经主导这种交流。如果你已经在寻找将开源解决方案运用的领域,看上面的10条就行了。 ### 该你了 你已经将开源用到你的工作中了吗?如果是,属于哪一条方法呢? --- via: <http://www.techrepublic.com/blog/10-things/10-best-uses-for-open-source-software-in-the-business-world/> 作者:[Jack Wallen](http://www.techrepublic.com/search/?a=jack+wallen) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,104
13 种在 Linux 系统上检测 CPU 信息的工具
http://ask.xmodulo.com/check-cpu-info-linux.html
2015-03-23T13:56:00
[ "CPU", "lscpu" ]
/article-5104-1.html
> > **问题**: 我想要了解我的电脑关于CPU处理器的详细信息,查看CPU信息比较有效地方法是什么? > > > 根据你的需要,有各种各样的关于你的CPU处理器信息你需要了解,比如CPU供应商名、模型名、时钟频率、插槽/内核的数量, L1/L2/L3缓存配置、可用的处理器能力(比如:硬件虚拟化、AES, MMX, SSE)等等。在Linux中,有许多命令行或基于GUI的工具就能来展示你的CPU硬件的相关具体信息。 ![](/data/attachment/album/201503/22/120334bye7hoq24z6s82cg.jpg) ### 1. /proc/cpuinfo 最简单的方法就是查看 /proc/cpuinfo ,这个虚拟文件展示的是可用CPU硬件的配置。 ``` $ more /proc/cpuinfo ``` ![](/data/attachment/album/201503/22/120349b7oi5rzcsaqr0li1.jpg) 通过查看这个文件,你能[识别出](http://xmodulo.com/how-to-find-number-of-cpu-cores-on.html)物理处理器数(插槽)、每个CPU核心数、可用的CPU标志寄存器以及其它东西的数量。 ### 2. cpufreq-info cpufreq-info命令(**cpufrequtils**包的一部分)从内核/硬件中收集并报告CPU频率信息。这条命令展示了CPU当前运行的硬件频率,包括CPU所允许的最小/最大频率、CPUfreq策略/统计数据等等。来看下CPU #0上的信息: ``` $ cpufreq-info -c 0 ``` ![](/data/attachment/album/201503/22/120356betqdxhhaeocdqea.jpg) ### 3. cpuid cpuid命令的功能就相当于一个专用的CPU信息工具,它能通过使用[CPUID功能](http://en.wikipedia.org/wiki/CPUID)来显示详细的关于CPU硬件的信息。信息报告包括处理器类型/家族、CPU扩展指令集、缓存/TLB(译者注:传输后备缓冲器)配置、电源管理功能等等。 ``` $ cpuid ``` ![](/data/attachment/album/201503/22/120400lzm1paul77ljj583.jpg) ### 4. dmidecode dmidecode命令直接从BIOS的DMI(桌面管理接口)数据收集关于系统硬件的具体信息。CPU信息报告包括CPU供应商、版本、CPU标志寄存器、最大/当前的时钟速度、(启用的)核心总数、L1/L2/L3缓存配置等等。 ``` $ sudo dmidecode ``` ![](/data/attachment/album/201503/22/120402wx31n1dqzpnxdqtx.jpg) ### 5. hardinfo hardinfo是一个基于GUI的系统信息工具,它能展示给你一个易于理解的CPU硬件信息的概况,也包括你的系统其它的一些硬件组成部分。 ``` $ hardinfo ``` ![](/data/attachment/album/201503/22/120404ib0iybgfvq7bb7oo.jpg) ### 6. i7z i7z是一个专供英特尔酷睿i3、i5和i7 CPU的实时CPU报告工具。它能实时显示每个核心的各类信息,比如睿频加速状态、CPU频率、CPU电源状态、温度检测等等。i7z运行在基于ncurses的控制台模式或基于QT的GUI的其中之一上。 ``` $ sudo i7z ``` ![](/data/attachment/album/201503/22/120406kmquhw6qoijsj61h.jpg) ### 8. likwid拓扑 [likwid](http://xmodulo.com/identify-cpu-processor-architecture-linux.html) (Like I Knew What I'm Doing) 是一个用来测量、配置并显示硬件相关特性的命令行收集工具。其中的likwid拓扑结构能显示CPU硬件(线程/缓存/NUMA)的拓扑结构信息,还能识别处理器家族(比如:Intel Core 2, AMD Shanghai)。 ![](/data/attachment/album/201503/22/120409lq9trurnfqp00888.jpg) ### 9. lscpu lscpu命令用一个更加用户友好的格式统计了 /etc/cpuinfo 的内容,比如CPU、核心、套接字、NUMA节点的数量(线上/线下)。 ``` $ lscpu ``` ![](/data/attachment/album/201503/22/120411yqffxjd766jb5z62.jpg) ### 10. lshw **lshw**命令是一个综合性硬件查询工具。不同于其它工具,lshw需要root特权才能运行,因为它是在BIOS系统里查询DMI(桌面管理接口)信息。它能报告总核心数和可用核心数,但是会遗漏掉一些信息比如L1/L2/L3缓存配置。GTK版本的lshw-gtk也是可用的。 ``` $ sudo lshw -class processor ``` ![](/data/attachment/album/201503/22/120413wv610w1le6fykf1v.jpg) ### 11. lstopo lstopo命令 (包括在 [hwloc](http://xmodulo.com/identify-cpu-processor-architecture-linux.html) 包中) 以可视化的方式组成 CPU、缓存、内存和I/O设备的拓扑结构。这个命令用来识别处理器结构和系统的NUMA拓扑结构。 ``` $ lstopo ``` ![](/data/attachment/album/201503/22/120415d87bwwt41tuw667s.jpg) ### 12. numactl 最初其被开发的目的是为了设置NUMA的时序安排和Linux处理器的内存布局策略,numactl命令也能通过命令行来展示关于CPU硬件的NUMA拓扑结构信息。 ``` $ numactl --hardware ``` ![](/data/attachment/album/201503/22/120416xuscmo2c54o5unju.jpg) ### 13. x86info x86info是一个为了展示基于x86架构的CPU信息的命令行工具。信息报告包括CPU型号、线程/核心数、时钟速度、TLB(传输后备缓冲器)缓存配置、支持的特征标志寄存器等等。 ``` $ x86info --all ``` ![](/data/attachment/album/201503/22/120430bu72kcr0u131r78r.jpg) --- via: <http://ask.xmodulo.com/check-cpu-info-linux.html> 译者:[ZTinoZ](https://github.com/ZTinoZ) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /check-cpu-info-linux.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c57e0>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)"))
null
5,105
用‘slay’干掉某个用户的所有进程
http://www.unixmen.com/kill-processes-specific-user-slay/
2015-03-24T07:30:00
[ "slay", "kill" ]
https://linux.cn/article-5105-1.html
**slay** 是**Chris Ausbrooks**写的一款用于杀掉指定用户所有运行进程的命令行工具。slay对系统管理员而言在找出那些不应该运行进程的用户是很有用的。 slay在大多数发行版中都有官方仓库。 安装 ### Ubuntu 和它的衍生版 ``` sudo apt-get install slay ``` ### Arch Linux 和它的衍生版 ``` sudo pacman -S slay ``` ### Fedora 和它的衍生版 ``` sudo yum install slay ``` ### 用法 你应该有管理员权限来使用slay, 要杀掉指定用户的进程,你就要: ``` sudo slay <usename> ``` 比如:我想杀掉用户**amitooo**的所有进程。 ``` ~ sudo slay amitooo slay: Done. ``` ![](/data/attachment/album/201503/22/123309z6mg9gtcsq9a9e6a.png) 当slay运行完成后,你应该就可以看到反馈了。 爽吧?! --- via: <http://www.unixmen.com/kill-processes-specific-user-slay/> 作者:[Enock Seth Nyamador](http://www.unixmen.com/author/seth/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,106
如何用wifi-linux检测AP信号强度
http://linoxide.com/linux-how-to/monitor-access-point-signal-strength-wifi-linux/
2015-03-24T10:52:00
[ "wifi" ]
/article-5106-1.html
作为一名python极客,我喜欢在github上挖掘新的用于linux用户的python工具。今天我发现了一款用python写成的用于检测AP信号强度的工具:wifi-linux。 我已经在**wifi-linux**上实验了大约两个小时,并且它工作的很好,但是我希望在不久的将来在作者那里看到一些单元测试,因为命令**plot**无法在我的电脑上工作,并且会导致一些问题。 ![](/data/attachment/album/201503/22/125525r0zi9g0cipsaxicb.png) ### 什么是wifi-linux 根据github上作者账号的官方的 readme.md文件, wifi-linux是一个简单的收集你周围AP的RSSI信息的python脚本,它还会画出RSSI活动图形。 作者说可以在该程序中可以使用plot命令绘制RSSI 活动图形,但是不幸的是,这对我不可行。wifi-linux也支持其他的命令,比如**bp** 来加入一个断点,**print**会打印一些统计和**启动开关**。 wifi-linux程序有下面这些依赖: * dbus-python * gnuplot-py 首先我们需要安装所有的包依赖以使它可以运行在我们的linux机器上。 ### 安装wifi-linux需要的包 我尝试使用python包管理工具pip安装python-dbus但是失败了,因为pip会查找setup.py,但是python-dbus中没有。因此下面的命令不工作。 ``` pip install dbus-python ``` 你可以试一下但是很有可能会在终端中出现下面的错误。 ``` IOError: [Errno 2] No such file or directory: '/tmp/pip_build_oltjano/dbus-python/setup.py' ``` 我该怎么解决这个问题呢?很简单,用下面命令中的系统包管理工具来安装Python DBUS。 ``` sudo apt-get install python-dbus ``` 上面的命令只有在有apt-get包管理器的机器中才可以使用,比如Debian和Ubuntu。 我们要安装的第二个依赖是gnuplot-py。下载并用tar解压,接着运行setup.py来安装包。 第一步是下载gnuplot-py。 ``` wget http://prdownloads.sourceforge.net/gnuplot-py/gnuplot-py-1.8.tar.gz ``` 接着使用tar工具解压。 ``` tar xvf gnuplot-py-1.8.tar.gz ``` 接着使用cd命令改变目录。 ``` cd gnuplot-py-1.8 ``` 接着运行下面的命令在你的系统中安装gnuplot-py。 ``` sudo setup.py install ``` 安装完成后,你就可以在你的系统中运行wifi-linux了。只需下载并用下面的命令运行脚本。 用下面的命令下载wifi-linux到你的机器中。 ``` wget https://github.com/dixel/wifi-linux/archive/master.zip ``` 解压master.zip接着使用下面的命令运行list\_rsssi.py脚本。 ``` python list_rssi.py ``` 下面的截图说明wifi-linux在工作了。 ![wifi-linux to monitor wifi signal strength](/data/attachment/album/201503/22/125530lwrvv6vw0e9ez01j.png) 命令**bp**用于像下面那样添加一个断点。 ![the bp command in wifi-linux](/data/attachment/album/201503/22/125540ls3y4wop84x43l1u.png) 命令**print**可以用于在终端上显示你机器的状态。下面就是一个例子。 ![the print command](/data/attachment/album/201503/22/125543uzb40h41fw42hjw7.png) --- via: <http://linoxide.com/linux-how-to/monitor-access-point-signal-strength-wifi-linux/> 作者:[Oltjano Terpollari](http://linoxide.com/author/oltjano/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/monitor-access-point-signal-strength-wifi-linux/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c4940>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,107
使用Nemiver调试器来调试 C/C++ 程序
http://xmodulo.com/debug-program-nemiver-debugger.html
2015-03-24T11:44:00
[ "gdb", "Nemiver", "调试" ]
https://linux.cn/article-5107-1.html
如果你读过我写的[使用GDB命令行调试器调试C/C++程序](http://linux.cn/article-4302-1.html),你就会明白一个调试器对一段C/C++程序来说有多么的重要和有用。然而,如果一个像GDB这样的命令行对你而言听起来更像一个问题而不是一个解决方案的话,那么你也许会对Nemiver更感兴趣。[Nemiver](https://wiki.gnome.org/Apps/Nemiver) 是一款基于 GTK+ 的用于C/C++程序的图形化的独立调试器,它以GDB作为其后端。最令人赞赏的是其速度和稳定性,Nemiver是一个非常可靠,具备许多优点的调试工具。 ### Nemiver的安装 基于Debian发行版,它的安装时非常直接简单,如下: ``` $ sudo apt-get install nemiver ``` 在Arch Linux中安装如下: ``` $ sudo pacman -S nemiver ``` 在Fedora中安装如下: ``` $ sudo yum install nemiver ``` 如果你选择自己编译,[GNOME 网站](https://download.gnome.org/sources/nemiver/0.9/)上有最新源码包。 最令人欣慰的是,它能够很好地与GNOME环境像结合。 ### Nemiver的基本用法 启动Nemiver的命令: ``` $ nemiver ``` 你也可以通过执行一下命令来启动: ``` $ nemiver [需要调试的可执行程序的路径] ``` 注意,如果在调试模式下编译程序(在 GCC 中使用 -g 选项)将会对 nemiver 更有帮助。 还有一个优点是Nemiver的加载很快,所以你马上就可以看到主屏幕的默认布局。 ![](/data/attachment/album/201503/22/214604nkc33p2pv33ps392.jpg) 默认情况下,断点通常位于主函数的第一行。这样就可以空出时间让你去认识调试器的基本功能: ![](/data/attachment/album/201503/22/214605y2ksfkxg0xfzj98z.jpg) * 执行到下一行 (按键是F6) * 执行到函数内部即停止(F7) * 执行到函数外部即停止(Shift+F7) 不过我个人喜欢“Run to cursor(运行至光标所在行)”,该选项使你的程序准确的运行至你光标所在行,它的默认按键是F11。 断点是很容易使用的。最快捷的方式是在一行代码上按下F8来设置一个断点。但是Nemiver在“Debug”菜单下也有一个更复杂的菜单,它允许你在一个特定的函数,某一行,二进制文件中的位置,或者类似异常、分支或者exec的事件上设置断点。 ![](/data/attachment/album/201503/22/214608euss9n2i2rszj1sn.jpg) 你也可以通过追踪来查看一个变量。在“Debug”中,你可以用一个表达式的名字来检查它的值,然后也可以通过将其添加到列表中以方便访问。这可能是最有用的一个功能,虽然我从未有兴趣将鼠标悬停在一个变量来获取它的值。值得注意的是,虽然鼠标悬停可以取到值,如果想要让它更好地工作,Nemiver是可以看到结构并给出所有成员的变量的赋值。 ![](/data/attachment/album/201503/22/214609dp0nso09mg5maygc.jpg) 谈到方便地访问信息,我也非常欣赏这个程序的布局。默认情况下,代码在上半部分,功能区标签在下半部分。这可以让你访问终端的输出、上下文追踪器、断点列表、注册器地址、内存映射和变量控制。但是请注意在“Edit”-“Preferences”-“Layout”下你可以选择不同的布局,包括一个可以修改的动态布局。 ![](/data/attachment/album/201503/22/214617sv0x8560nsxe866c.jpg) ![](/data/attachment/album/201503/22/214618a395f2k325lf4nfp.jpg) 自然,当你设置了全部断点,观察点和布局,您可以在“File”菜单下很方便地保存该会话,以便你下次打开时恢复。 ### Nemiver的高级用法 到目前为止,我们讨论的都是Nemiver的基本特征,例如,你马上开始调试一个简单的程序需要了解什么。如果你有更高的需求,特别是对于一些更加复杂的程序,你应该会对接下来提到的这些特征更感兴趣。 #### 调试一个正在运行的进程 Nemiver允许你驳接到一个正在运行的进程进行调试。在“File”菜单,你可以筛选出正在运行的进程,并驳接到某个进程。 ![](/data/attachment/album/201503/22/214622qy7yb35ukkrraa5o.jpg) #### 通过TCP连接远程调试一个程序 Nemiver支持远程调试,你可以在一台远程机器上设置一个轻量级调试服务器,然后你在另外一台机器上启动 nemiver 去调试运行在调试服务器上的程序。如果出于某些原因,你不能在远程机器上很好地驾驭 Nemiver或者GDB,那么远程调试对于你来说将非常有用。在“File”菜单下,指定二进制文件、共享库位置、远程地址和端口。 ![](/data/attachment/album/201503/22/214625i34nnkxrk462x6z4.jpg) #### 使用你的GDB二进制程序进行调试 如果你的Nemiver是自行编译的,你可以在“Edit(编辑)”-“Preferences(首选项)”-“Debug(调试)”下给GDB指定一个新的位置。如果你想在Nemiver下使用定制版本的GDB,那么这个选项对你来说是非常实用的。 #### 跟随一个子进程或者父进程 当你的程序分支时,Nemiver是可以设置为跟随子进程或者父进程的。想激活这个功能,请到“Debugger”下面的“Preferences(首选项)”。 ![](/data/attachment/album/201503/22/214629dmuq1n1192dnsu2m.jpg) 总而言之,Nemiver大概是我最喜欢的不在IDE里面的调试程序。在我看来,它甚至可以击败GDB,它和命令行程序一样深深吸引了我。所以,如果你从未使用过的话,我会强烈推荐你使用。我十分感谢它背后的开发团队给了我这么一个可靠、稳定的程序。 你对Nemiver有什么见解?你是否也考虑它作为独立的调试工具?或者仍然坚持使用IDE?让我们在评论中探讨吧。 --- via: <http://xmodulo.com/debug-program-nemiver-debugger.html> 作者:[Adrien Brochard](http://xmodulo.com/author/adrien) 译者:[disylee](https://github.com/disylee) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,108
在Ubuntu/Fedora/CentOS中安装Gitblit
http://www.unixmen.com/install-gitblit-ubuntu-fedora-centos/
2015-03-25T10:07:00
[ "git", "gitblit" ]
https://linux.cn/article-5108-1.html
**Git**是一款注重速度、数据完整性、分布式支持和非线性工作流的分布式版本控制工具。Git最初由Linus Torvalds在2005年为Linux内核开发而设计,如今已经成为被广泛接受的版本控制系统。 和其他大多数分布式版本控制系统比起来,不像大多数客户端-服务端的系统,每个Git工作目录是一个完整的仓库,带有完整的历史记录和完整的版本跟踪能力,不需要依赖网络或者中心服务器。像Linux内核一样,Git也是在GPLv2许可证下分发的自由软件。 本篇教程我会演示如何安装 gitlit 服务器。gitlit的最新稳定版是1.6.2。[Gitblit](http://gitblit.com/)是一款开源、纯Java开发的用于管理、浏览和提供[Git](http://git-scm.com/)仓库服务的软件。它被设计成一款为希望托管中心仓库的小型工作组服务的工具。 ``` mkdir -p /opt/gitblit; cd /opt/gitblit; wget http://dl.bintray.com/gitblit/releases/gitblit-1.6.2.tar.gz ``` ### 列出解压后目录内容: ``` root@vps124229 [/opt/gitblit]# ls ./ docs/ gitblit-stop.sh* LICENSE service-ubuntu.sh* ../ ext/ install-service-centos.sh* migrate-tickets.sh* add-indexed-branch.sh* gitblit-1.6.2.tar.gz install-service-fedora.sh* NOTICE authority.sh* gitblit.jar install-service-ubuntu.sh* reindex-tickets.sh* data/ gitblit.sh* java-proxy-config.sh* service-centos.sh* ``` 默认配置文件在data/gitblit.properties,你可以根据需要自己修改。 ### 启动gitlit服务: **通过service命令:** ``` root@vps124229 [/opt/gitblit]# cp service-centos.sh /etc/init.d/gitblit root@vps124229 [/opt/gitblit]# chkconfig --add gitblit root@vps124229 [/opt/gitblit]# service gitblit start Starting gitblit server . ``` **手动启动:** ``` root@vps124229 [/opt/gitblit]# java -jar gitblit.jar --baseFolder data 2015-01-10 09:16:53 [INFO ] ***************************************************************** 2015-01-10 09:16:53 [INFO ] _____ _ _ _ _ _ _ 2015-01-10 09:16:53 [INFO ] | __ \(_)| | | | | |(_)| | 2015-01-10 09:16:53 [INFO ] | | \/ _ | |_ | |__ | | _ | |_ 2015-01-10 09:16:53 [INFO ] | | __ | || __|| '_ \ | || || __| 2015-01-10 09:16:53 [INFO ] | |_\ \| || |_ | |_) || || || |_ 2015-01-10 09:16:53 [INFO ] \____/|_| \__||_.__/ |_||_| \__| 2015-01-10 09:16:53 [INFO ] Gitblit v1.6.2 2015-01-10 09:16:53 [INFO ] 2015-01-10 09:16:53 [INFO ] ***************************************************************** 2015-01-10 09:16:53 [INFO ] Running on Linux (3.8.13-xxxx-grs-ipv6-64-vps) 2015-01-10 09:16:53 [INFO ] Logging initialized @842ms 2015-01-10 09:16:54 [INFO ] Using JCE Unlimited Strength Jurisdiction Policy files 2015-01-10 09:16:54 [INFO ] Setting up HTTPS transport on port 8443 2015-01-10 09:16:54 [INFO ] certificate alias = localhost 2015-01-10 09:16:54 [INFO ] keyStorePath = /opt/gitblit/data/serverKeyStore.jks 2015-01-10 09:16:54 [INFO ] trustStorePath = /opt/gitblit/data/serverTrustStore.jks 2015-01-10 09:16:54 [INFO ] crlPath = /opt/gitblit/data/certs/caRevocationList.crl 2015-01-10 09:16:54 [INFO ] Shutdown Monitor listening on port 8081 2015-01-10 09:16:54 [INFO ] jetty-9.2.3.v20140905 2015-01-10 09:16:55 [INFO ] NO JSP Support for /, did not find org.apache.jasper.servlet.JspServlet 2015-01-10 09:16:55 [INFO ] 2015-01-10 09:16:55 [INFO ] ----[com.gitblit.manager.IRuntimeManager]---- 2015-01-10 09:16:55 [INFO ] Basefolder : /opt/gitblit/data 2015-01-10 09:16:55 [INFO ] Settings : /opt/gitblit/data/gitblit.properties 2015-01-10 09:16:55 [INFO ] JVM timezone: America/Montreal (EST -0500) 2015-01-10 09:16:55 [INFO ] App timezone: America/Montreal (EST -0500) 2015-01-10 09:16:55 [INFO ] JVM locale : en_US 2015-01-10 09:16:55 [INFO ] App locale : <client> 2015-01-10 09:16:55 [INFO ] PF4J runtime mode is 'deployment' 2015-01-10 09:16:55 [INFO ] Enabled plugins: [] 2015-01-10 09:16:55 [INFO ] Disabled plugins: [] 2015-01-10 09:16:55 [INFO ] 2015-01-10 09:16:55 [INFO ] ----[com.gitblit.manager.INotificationManager]---- 2015-01-10 09:16:55 [WARN ] Mail service disabled. 2015-01-10 09:16:55 [INFO ] 2015-01-10 09:16:55 [INFO ] ----[com.gitblit.manager.IUserManager]---- 2015-01-10 09:16:55 [INFO ] ConfigUserService(/opt/gitblit/data/users.conf) 2015-01-10 09:16:55 [INFO ] 2015-01-10 09:16:55 [INFO ] ----[com.gitblit.manager.IAuthenticationManager]---- 2015-01-10 09:16:55 [INFO ] External authentication disabled. 2015-01-10 09:16:55 [INFO ] 2015-01-10 09:16:55 [INFO ] ---- [com.gitblit.transport.ssh.IPublicKeyManager]---- 2015-01-10 09:16:55 [INFO ] FileKeyManager (/opt/gitblit/data/ssh) 2015-01-10 09:16:55 [INFO ] 2015-01-10 09:16:55 [INFO ] ----[com.gitblit.manager.IRepositoryManager]---- 2015-01-10 09:16:55 [INFO ] Repositories folder : /opt/gitblit/data/git 2015-01-10 09:16:55 [INFO ] Identifying repositories... 2015-01-10 09:16:55 [INFO ] 0 repositories identified with calculated folder sizes in 11 msecs 2015-01-10 09:16:55 [INFO ] Lucene will process indexed branches every 2 minutes. 2015-01-10 09:16:55 [INFO ] Garbage Collector (GC) is disabled. 2015-01-10 09:16:55 [INFO ] Mirror service is disabled. 2015-01-10 09:16:55 [INFO ] Alias UTF-9 & UTF-18 encodings as UTF-8 in JGit 2015-01-10 09:16:55 [INFO ] Preparing 14 day commit cache. please wait... 2015-01-10 09:16:55 [INFO ] 0 repositories identified with calculated folder sizes in 0 msecs 2015-01-10 09:16:55 [INFO ] built 14 day commit cache of 0 commits across 0 repositories in 2 msecs 2015-01-10 09:16:55 [INFO ] 2015-01-10 09:16:55 [INFO ] ----[com.gitblit.manager.IProjectManager]---- 2015-01-10 09:16:55 [INFO ] 2015-01-10 09:16:55 [INFO ] ----[com.gitblit.manager.IFederationManager]---- 2015-01-10 09:16:55 [INFO ] 2015-01-10 09:16:55 [INFO ] ----[com.gitblit.manager.IGitblit]---- 2015-01-10 09:16:55 [INFO ] Starting services manager... 2015-01-10 09:16:55 [INFO ] Federation passphrase is blank! This server can not be PULLED from. 2015-01-10 09:16:55 [INFO ] Fanout PubSub service is disabled. 2015-01-10 09:16:55 [INFO ] Git Daemon is listening on 0.0.0.0:9418 2015-01-10 09:16:55 [INFO ] SSH Daemon (NIO2) is listening on 0.0.0.0:29418 2015-01-10 09:16:55 [WARN ] No ticket service configured. 2015-01-10 09:16:55 [INFO ] 2015-01-10 09:16:55 [INFO ] ----[com.gitblit.manager.IPluginManager]---- 2015-01-10 09:16:55 [INFO ] No plugins 2015-01-10 09:16:55 [INFO ] 2015-01-10 09:16:55 [INFO ] All managers started. ``` 打开浏览器,依据你的配置进入**http://localhost:8080** 或者 **https://localhost:8443**。 输入默认的管理员授权:**admin / admin** 并点击**Login** 按钮 ![snapshot2](/data/attachment/album/201503/22/220909qqee2ydg33wgyjhw.png) ### 添加用户: ![snapshot1](/data/attachment/album/201503/22/220910n9sfd1f11priudtt.png) ### 添加仓库: ![snapshot3](/data/attachment/album/201503/22/220914u20v6fzu1s0168s1.png) ### 用命令行创建新的仓库: ``` touch README.md git init git add README.md git commit -m "first commit" git remote add origin ssh://admin@142.4.202.70:29418/Programming.git git push -u origin master ``` ### 从命令行推送已有的仓库: ``` git remote add origin ssh://admin@142.4.202.70:29418/Programming.git git push -u origin master ``` 完成! --- via: <http://www.unixmen.com/install-gitblit-ubuntu-fedora-centos/> 作者:[M.el Khamlichi](http://www.unixmen.com/author/pirat9/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,109
Linux中的15个基本‘ls’命令示例
http://www.tecmint.com/15-basic-ls-command-examples-in-linux/
2015-03-25T08:18:00
[ "ls" ]
https://linux.cn/article-5109-1.html
ls命令是Linux系统中最被频繁使用的命令之一,我相信ls命令一定是你进入一台Linux系统的电脑打开命令提示符后第一个使用的命令。我们每天都在频繁地使用ls命令,即使我们可能没有意识也从来用不到所有可用的选项。本文中,我们将讨论下一些基本的ls命令并且覆盖尽可能多的有关参数来讲解。 ![](/data/attachment/album/201503/22/223143trv2bvec9mrepo29.jpg) *Linux的ls命令* ### 1. 不带任何选项列出文件 不带选项的ls命令来光秃秃地列出文件和目录,我们是不能看到像文件类型、大小、修改日期和时间、权限以及链接这样具体的信息的。 ``` # ls 0001.pcap Desktop Downloads index.html install.log.syslog Pictures Templates anaconda-ks.cfg Documents fbcmd_update.php install.log Music Public Videos ``` ### 2 带 –l 选项列出文件列表 你看,ls -l(-l是字母不是“1”)就能展示出是文件还是目录,它的大小、修改日期和时间、文件或目录的名字以及文件的属主和它的权限。 ``` # ls -l total 176 -rw-r--r--. 1 root root 683 Aug 19 09:59 0001.pcap -rw-------. 1 root root 1586 Jul 31 02:17 anaconda-ks.cfg drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Desktop drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Documents drwxr-xr-x. 4 root root 4096 Aug 16 02:55 Downloads -rw-r--r--. 1 root root 21262 Aug 12 12:42 fbcmd_update.php -rw-r--r--. 1 root root 46701 Jul 31 09:58 index.html -rw-r--r--. 1 root root 48867 Jul 31 02:17 install.log -rw-r--r--. 1 root root 11439 Jul 31 02:13 install.log.syslog drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Music drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Pictures drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Public drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Templates drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Videos ``` ### 3. 浏览隐藏文件 列出所有文件包括以‘.’开头的隐藏文件。 ``` # ls -a . .bashrc Documents .gconfd install.log .nautilus .pulse-cookie .. .cache Downloads .gnome2 install.log.syslog .netstat.swp .recently-used.xbel 0001.pcap .config .elinks .gnome2_private .kde .opera .spice-vdagent anaconda-ks.cfg .cshrc .esd_auth .gtk-bookmarks .libreoffice Pictures .tcshrc .bash_history .dbus .fbcmd .gvfs .local .pki Templates .bash_logout Desktop fbcmd_update.php .ICEauthority .mozilla Public Videos .bash_profile .digrc .gconf index.html Music .pulse .wireshark ``` ### 4. 用 -lh 选项来以易读方式列出文件 用-lh组合选项,以易读方式来显示大小。 ``` # ls -lh total 176K -rw-r--r--. 1 root root 683 Aug 19 09:59 0001.pcap -rw-------. 1 root root 1.6K Jul 31 02:17 anaconda-ks.cfg drwxr-xr-x. 2 root root 4.0K Jul 31 02:48 Desktop drwxr-xr-x. 2 root root 4.0K Jul 31 02:48 Documents drwxr-xr-x. 4 root root 4.0K Aug 16 02:55 Downloads -rw-r--r--. 1 root root 21K Aug 12 12:42 fbcmd_update.php -rw-r--r--. 1 root root 46K Jul 31 09:58 index.html -rw-r--r--. 1 root root 48K Jul 31 02:17 install.log -rw-r--r--. 1 root root 12K Jul 31 02:13 install.log.syslog drwxr-xr-x. 2 root root 4.0K Jul 31 02:48 Music drwxr-xr-x. 2 root root 4.0K Jul 31 02:48 Pictures drwxr-xr-x. 2 root root 4.0K Jul 31 02:48 Public drwxr-xr-x. 2 root root 4.0K Jul 31 02:48 Templates drwxr-xr-x. 2 root root 4.0K Jul 31 02:48 Videos ``` ### 5. 以尾部以‘/’字符结尾的方式列出文件和目录 使用 ls 命令的 -F 选项,会在每个目录的末尾添加“/”字符显示。 ``` # ls -F 0001.pcap Desktop/ Downloads/ index.html install.log.syslog Pictures/ Templates/ anaconda-ks.cfg Documents/ fbcmd_update.php install.log Music/ Public/ Videos/ ``` ### 6. 倒序列出文件 ls -r 选项能以倒序方式显示文件和目录。 ``` # ls -r Videos Public Music install.log fbcmd_update.php Documents anaconda-ks.cfg Templates Pictures install.log.syslog index.html Downloads Desktop 0001.pcap ``` ### 7. 递归列出子目录 ls -R 选项能列出非常长的目录树,来看看示例输出: ``` # ls -R total 1384 -rw-------. 1 root root 33408 Aug 8 17:25 anaconda.log -rw-------. 1 root root 30508 Aug 8 17:25 anaconda.program.log ./httpd: total 132 -rw-r--r-- 1 root root 0 Aug 19 03:14 access_log -rw-r--r--. 1 root root 61916 Aug 10 17:55 access_log-20120812 ./lighttpd: total 68 -rw-r--r-- 1 lighttpd lighttpd 7858 Aug 21 15:26 access.log -rw-r--r--. 1 lighttpd lighttpd 37531 Aug 17 18:21 access.log-20120819 ./nginx: total 12 -rw-r--r--. 1 root root 0 Aug 12 03:17 access.log -rw-r--r--. 1 root root 390 Aug 12 03:17 access.log-20120812.gz ``` ### 8. 以修改时间倒序列出 带-ltr组合选项能以文件或目录的最新修改时间的次序来显示它们。 ``` # ls -ltr total 176 -rw-r--r--. 1 root root 11439 Jul 31 02:13 install.log.syslog -rw-r--r--. 1 root root 48867 Jul 31 02:17 install.log -rw-------. 1 root root 1586 Jul 31 02:17 anaconda-ks.cfg drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Desktop drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Videos drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Templates drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Public drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Pictures drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Music drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Documents -rw-r--r--. 1 root root 46701 Jul 31 09:58 index.html -rw-r--r--. 1 root root 21262 Aug 12 12:42 fbcmd_update.php drwxr-xr-x. 4 root root 4096 Aug 16 02:55 Downloads -rw-r--r--. 1 root root 683 Aug 19 09:59 0001.pcap ``` ### 9. 按文件大小排序 带-lS组合选项能按文件从大到小的次序显示。 ``` # ls -lS total 176 -rw-r--r--. 1 root root 48867 Jul 31 02:17 install.log -rw-r--r--. 1 root root 46701 Jul 31 09:58 index.html -rw-r--r--. 1 root root 21262 Aug 12 12:42 fbcmd_update.php -rw-r--r--. 1 root root 11439 Jul 31 02:13 install.log.syslog drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Desktop drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Documents drwxr-xr-x. 4 root root 4096 Aug 16 02:55 Downloads drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Music drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Pictures drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Public drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Templates drwxr-xr-x. 2 root root 4096 Jul 31 02:48 Videos -rw-------. 1 root root 1586 Jul 31 02:17 anaconda-ks.cfg -rw-r--r--. 1 root root 683 Aug 19 09:59 0001.pcap ``` ### 10. 显示文件或目录的索引节点号 我们有时候可以看到一些数字打印在文件或目录名之前,带-i选项就能列出文件或目录的索引节点号。 ``` # ls -i 20112 0001.pcap 23610 Documents 23793 index.html 23611 Music 23597 Templates 23564 anaconda-ks.cfg 23595 Downloads 22 install.log 23612 Pictures 23613 Videos 23594 Desktop 23585 fbcmd_update.php 35 install.log.syslog 23601 Public ``` ### 11. 显示ls命令的版本 查看ls命令的版本。 ``` # ls --version ls (GNU coreutils) 8.4 Copyright (C) 2010 Free Software Foundation, Inc. License GPLv3+: GNU GPL version 3 or later <http://gnu.org/licenses/gpl.html>. This is free software: you are free to change and redistribute it. There is NO WARRANTY, to the extent permitted by law. Written by Richard M. Stallman and David MacKenzie. ``` ### 12. 显示帮助页面 列出ls命令的选项帮助页面。 ``` # ls --help Usage: ls [OPTION]... [FILE]... ``` ### 13. 列出目录信息 用ls -l命令列出/tmp目录下的文件,其中-ld参数可以只显示/tmp目录的信息。 ``` # ls -l /tmp total 408 drwx------. 2 narad narad 4096 Aug 2 02:00 CRX_75DAF8CB7768 -r--------. 1 root root 384683 Aug 4 12:28 htop-1.0.1.tar.gz drwx------. 2 root root 4096 Aug 4 11:20 keyring-6Mfjnk drwx------. 2 root root 4096 Aug 16 01:33 keyring-pioZJr drwx------. 2 gdm gdm 4096 Aug 21 11:26 orbit-gdm drwx------. 2 root root 4096 Aug 19 08:41 pulse-gl6o4ZdxQVrX drwx------. 2 narad narad 4096 Aug 4 08:16 pulse-UDH76ExwUVoU drwx------. 2 gdm gdm 4096 Aug 21 11:26 pulse-wJtcweUCtvhn -rw-------. 1 root root 300 Aug 16 03:34 yum_save_tx-2012-08-16-03-34LJTAa1.yumtx ``` --- ``` # ls -ld /tmp/ drwxrwxrwt. 13 root root 4096 Aug 21 12:48 /tmp/ ``` ### 14. 显示文件的UID和GID 用ls -n命令来显示文件和目录的UID(译者注:userid,用户ID)和GID(译者注:groupid,组ID)。 ``` # ls -n total 36 drwxr-xr-x. 2 500 500 4096 Aug 2 01:52 Downloads drwxr-xr-x. 2 500 500 4096 Aug 2 01:52 Music drwxr-xr-x. 2 500 500 4096 Aug 2 01:52 Pictures -rw-rw-r--. 1 500 500 12 Aug 21 13:06 tmp.txt drwxr-xr-x. 2 500 500 4096 Aug 2 01:52 Videos ``` ### 15. ls命令和它的别名 我们给ls命令设置如下别名之后,当我们执行ls命令的时候它会默认执行-l选项并且像上文提到的那样显示长列表。 ``` # alias ls="ls -l" ``` 注意:我们可以通过不加任何参数的alias命令来看到目前系统中可用的所有alias设置,当然它们同时也可以unalias来取消。 ``` # alias alias cp='cp -i' alias l.='ls -d .* --color=auto' alias ll='ls -l --color=auto' alias ls='ls --color=auto' alias mv='mv -i' alias rm='rm -i' alias which='alias | /usr/bin/which --tty-only --read-alias --show-dot --show-tilde' ``` 删除一项之前定义的alias设置,只需用unalias命令即可。 ``` # unalias ls ``` 下篇文章我们将讨论更多更高级的ls命令以及示例,如果我们在本文有遗漏了任何东西,请通过评论让我们获悉。 --- via: <http://www.tecmint.com/15-basic-ls-command-examples-in-linux/> 作者:[Ravi Saive](http://www.tecmint.com/author/admin/) 译者:[ZTinoZ](https://github.com/ZTinoZ) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,111
微软允许 OEM 对 Windows 10电脑不提供关闭 Secure Boot 的选项
http://arstechnica.com/information-technology/2015/03/windows-10-to-make-the-secure-boot-alt-os-lock-out-a-reality/
2015-03-23T14:05:51
[ "UEFI", "Secure Boot", "Windows 10" ]
https://linux.cn/article-5111-1.html
用户[可能将无法](http://arstechnica.com/information-technology/2015/03/windows-10-to-make-the-secure-boot-alt-os-lock-out-a-reality/)在Windows 10电脑上安装其它操作系统了,微软不再要求OEM在UEFI 中提供的“关闭 Secure Boot”的选项。 微软最早是在Designed for Windows 8认证时要求OEM的产品必须支持UEFI Secure Boot。Secure Boot 被设计用来防止恶意程序悄悄潜入到引导进程。问题是如果其它的操作系统,比如 Linux,没有Secure Boot的有效签名它们将无法安装。幸好微软要求电脑必须有一个UEFI设置可以关闭Secure Boot的保护。 ![](/data/attachment/album/201503/23/140556th82323l23xmmdzs.png) **但现在微软改变了做法,允许OEM 厂商不提供该设置,这样用户将无法安装没有签名的替代操作系统。** Windows 10 对 OEM 厂商所提供 UEFI 的要求如下: * 必须支持 UEFI,兼容版本2.31 * 对于 Windows 10 Desktop:OEM 厂商可以选择是否允许用户关闭 Secure Boot * 对于 Windows 10 Mobile:OEM 厂商必须不能允许用户关闭 Secure Boot * UEFI Secure Boot 数据库必须按照 Windows 10 硬件需求来配置 * PCR 必须实现 TCG TrEE EFI 协议
301
Moved Permanently
null
5,113
DuckDuckGo向开源项目捐赠12.5万美元
https://duck.co/blog/donations_2015
2015-03-23T22:53:19
[ "DuckDuckGo", "捐赠" ]
https://linux.cn/article-5113-1.html
![](/data/attachment/album/201503/23/222426xi4et4o0vt5k18jj.png) 匿名搜索引擎DuckDuckGo称向五个自由软件开源项目捐赠了[12.5万美元](https://duck.co/blog/donations_2015)。今年捐赠的主要目标是那些保护隐私方面提供了帮助的自由和开源软件们。 ### [SecureDrop](https://securedrop.org/) ![](/data/attachment/album/201503/23/223054sn7ybjsw4nstsmb7.png) 向[新闻自由基金会](https://duck.co/redir/?u=https%3A%2F%2Ffreedom.press%2F)捐赠2.5万美元资助开源告密者递交系统[SecureDrop](https://securedrop.org/)。该系统的代码最早是[Aaron Swartz](https://duck.co/redir/?u=http%3A%2F%2Fen.wikipedia.org%2Fwiki%2FAaron_Swartz)开发的,现在有超过15家媒体在使用它。 [向它贡献代码](https://github.com/freedomofpress/securedrop) | [向它捐赠金钱](https://freedom.press/donate) ### [PrivacyBadger](https://www.eff.org/privacybadger) ![](/data/attachment/album/201503/23/223256wllf4qabqdbn5cj4.png) 向电子签署基金会捐赠2.5万美元资助隐私扩展[PrivacyBadger](https://www.eff.org/privacybadger)的开发。它用于网站上的广告主和第三方跟踪器的跟踪,以保护你的隐私。目前只有一个开发人员在维护它。 [向它贡献代码](https://github.com/EFForg/privacybadgerfirefox) | [向它捐赠金钱](https://supporters.eff.org/donate/support-privacy-badger/) ### [GPG Suite](https://gpgtools.org/gpgsuite.html) ![](/data/attachment/album/201503/23/223658cif8m892tmjjmcsd.png) 向GPGTools 捐赠2.5万美元资助加密工具[GPG Suite](https://gpgtools.org/gpgsuite.html)。这是一个 OS X 上的加密工具,可以用于加密/解密通讯和文件。目前由兼职团队进行维护。 [向它贡献代码](https://gpgtools.org/opensource.html) | [向它捐献金钱](https://gpgtools.org/donate.html) ### [Tails](https://tails.boum.org/) ![](/data/attachment/album/201503/23/224242tj793vqha52jkuzx.jpeg) 向 Riseup 捐赠2.5万美元资助匿名操作系统[Tails](https://tails.boum.org/)。这是一个可以运行在 DVD、USB 棒和 SD 卡上的操作系统,主要用于保护隐私和提供匿名。 [向它贡献代码](https://tails.boum.org/contribute/index.en.html) | [向它捐赠金钱](https://tails.boum.org/contribute/how/donate/index.en.html) 在隐私工具之外,我们也希望增加社区的多样性,因此还捐赠了第五个项目: ### [开源导师计划](https://www.girldevelopit.com/chapters) ![](/data/attachment/album/201503/23/224808uxbd61zzef44qvaz.png) 向[Girl Develop It (GDI)](https://www.girldevelopit.com/)捐赠2.5万美元资助她们即将开展的“开源导师计划”。GDI 的目标是让更多女性参与开源项目。 [向它贡献代码](https://www.girldevelopit.com/chapters) | [向它捐赠金钱](https://www.girldevelopit.com/donate)
302
Moved Temporarily
null
5,114
在linux中如何通过nload来监控网络使用情况
http://linoxide.com/monitoring-2/monitor-network-usage-nload/
2015-03-24T07:30:00
[ "nload", "网络" ]
/article-5114-1.html
nload 是一个 linux 自由软件工具,通过提供两个简单的图形来帮助linux用户和系统管理员来实时监控网络流量以及宽带使用情况:一个是进入流量,一个是流出流量。 我真的很喜欢用**nload**来在屏幕上显示当前的下载速度、总的流入量和平均下载速度等信息。nload工具的报告图非常容易理解,最重要的是这些信息真的非常有用。 在其使用手册上说到,在默认情况下它会监控所有网络设备。但是你可以轻松地指定你想要监控的设备,而且可以通过方向键在不同的网络设备之间进行转换。另外还有很多的选项可用,例如 ‘-t’选项以毫秒来设定刷新显示时间间隔(默认时间间隔值是500毫秒),‘-m’选项用来同时显示多个设备(在使用该选项时不会显示流量图),‘-u’选项用来设置显示流量数字的单位,另外还有许多其他的选项将会在本教程中探索和练习。 ![](/data/attachment/album/201503/24/000121e5w6o6wt9tt87s2e.jpg) ### 如何将 nload安装到你的linux机器上 **Ubuntu** 和 **Fedora** 用户可以从默认的软件仓库中容易地安装。 在Ubuntu上使用以下命令进行安装。 ``` sudo apt-get install nload ``` 在Fedora上使用以下命令进行安装。 ``` sudo yum install nload ``` **CentOS**用户该怎么办呢? 只需要在你的机器上输入以下命令就可以安装成功。 ``` sudo yum install nload ``` 以下的命令会帮助你在OpenBSD系统中安装nload。 ``` sudo pkg_add -i nload ``` 在 linux 机器上的另外一个非常有效的安装软件的方式就是编译源代码,下载并安装最新的版本意味着能够获得更好地性能、更酷的特性以及更少的bug。 ### 如何通过源代码安装nload 在从源代码安装nload之前,你需要首先下载源代码。 我通常使用wget工具来进行下载--该工具在许多linux机器上默认可用。该免费工具帮助用户以非交互式的方式从网络上下载文件,并支持以下协议: * HTTP * HTTPS * FTP 通过以下命令来进入到**/tmp**目录中。 ``` cd /tmp ``` 然后在你的终端中输入以下命令就可以将最新版本的nload下载到你的linux机器上了。 ``` wget http://www.roland-riegel.de/nload/nload-0.7.4.tar.gz ``` 如果你不喜欢使用wget工具,也可以通过简单的一个鼠标点击轻松地从[官网](http://www.roland-riegel.de/nload/nload-0.7.4.tar.gz)上下载其源代码。 由于该软件非常轻巧,其下载过程几乎在瞬间就会完成。接下来的步骤就是通过**tar**工具来将下载的源代码包进行解压。 tar归档工具可以用来从磁带或硬盘文档中存储或解压文件,该工具有许多可用的选项,但是我们只需要下面的几个选项来执行我们的操作。 1. **-x** 从归档中解压文件 2. **-v** 使用繁琐模式运行--用来显示详细信息 3. **-f** 用来指定归档文件 例如(LCTT 译注:tar 命令的参数前的“-”可以省略): ``` tar xvf example.tar ``` 现在你学会了如何使用tar工具,我可以非常肯定你知道了如何从命令行中解压这个.tar文档。 ``` tar xvf nload-0.7.4.tar.gz ``` 之后使用cd命令来进入到nload\*目录中: ``` cd nload* ``` 在我的系统上看起来是这样的: ``` oltjano@baby:/tmp/nload-0.7.4$ ``` 然后运行下面这个命令来为你的系统配置该软件包: ``` ./configure ``` 此时会有“一大波僵尸”会在你的屏幕上显示出来,下面的一个屏幕截图描述了它的样子。 ![configuring packages for nload](/data/attachment/album/201503/24/000131gboccc88khtocna3.png) 在上述命令完成之后,通过下面的命令来编译nload。 ``` make ``` ![compiling nload](/data/attachment/album/201503/24/000140ieucqnzqcdelrdnl.png) 好了,终于....,通过以下命令可以将nload安装在你的机器上了。 ``` sudo make install ``` ![installing nload from source](/data/attachment/album/201503/24/000149i04onar471t40h0t.png) 安装好nload之后就是让你学习如何使用它的时间了。 ### 如何使用nload 我喜欢探索,所以在你的终端输入以下命令. ``` nload ``` 看到了什么? 我得到了下面的结果。 ![running nload](/data/attachment/album/201503/24/000153x96z70c67puep698.png) 如上述截图可以看到,我得到了以下信息: #### 流入量 **当前下载速度** ![nload running on linux](/data/attachment/album/201503/24/000159wziw7h2w7y1dhdhz.png) **平均下载速度** ![nload running on linux](/data/attachment/album/201503/24/000206nufcxtbf55tufm11.png) **最小下载速度** ![nload running on linux](/data/attachment/album/201503/24/000214xfeaz3fic3wccaf0.png) **最大下载速度** ![nload running on linux](/data/attachment/album/201503/24/000220vsl1wosgfxxxx118.png) **总的流入量按字节进行显示** ![](/data/attachment/album/201503/24/000226i8av7aa66ry9vbab.png) #### 流出量 类似的同样适用于流出量 #### 一些nload有用的选项 使用选项-u来设置显示流量单位。 下面的命令会帮助你使用MBit/s显示单元 ``` nload -u m ``` 下面的屏幕截图显示了上述命令的结果。 ![nload running on linux](/data/attachment/album/201503/24/000229havasrz3a69hqw6j.png) 尝试以下命令然后看看有什么结果。 ``` nload -u g ``` ![nload running on linux](/data/attachment/album/201503/24/000234gooyh0zo7o9odof9.png) 同时还有一个**-U**选项。根据手册描述,该选项基本上与-u选项类似,只是用在合计数据。 我测试了这个命令,老实说,当你需要检查总的流入与流出量时非常有用。 ``` nload -U G ``` ![nload running on linux](/data/attachment/album/201503/24/000241o884s5i75s6wnw56.png) 从上面的截图中可以看到,**nload -U G** 使用Gbyte来显示数据总量。 另外一个我喜欢使用的有用选项是 **-t**。 该选项用来设置刷新显示事件间隔,单位为毫秒,默认值为500毫秒。 我会通过下面的命令做一些小的实验。 ``` nload -t 130 ``` 那么上述命令做了什么呢?它将刷新显示时间间隔设置为130毫秒。 通常推荐不要将该时间间隔值设置为小于100毫秒,因为nload在生成报告时计算错误。 另外的一个选项为 **-a**, 在你想要设置计算平均值的时间窗口的秒数时使用,默认该值为300秒。 那么当你想要监控指定的网络设备该如何呢? 非常容易, 像下面这样简单地指定设备或者列出想要监控的设备列表即可。 ``` nload wlan0 ``` ![nload monitoring wlan0 on linux](/data/attachment/album/201503/24/000246tnqa14tkktbb2b14.png) 下面的语法可帮助你监控指定的多个设备。 ``` nload [options] device1 device2 devicen ``` 例如,使用下面的命令来监控eth0和eth1。 ``` nload wlan0 eth0 ``` 如果不带选项来运行nload,那么它会监控所有自动检测到的设备,你可以通过左右方向键来显示其中的任何一个设备的信息。 --- via: <http://linoxide.com/monitoring-2/monitor-network-usage-nload/> 作者:[Oltjano Terpollari](http://linoxide.com/author/oltjano/) 译者:[theo-l](https://github.com/theo-l) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /monitoring-2/monitor-network-usage-nload/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c5570>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,117
4 个 lvcreate 常用命令举例
http://www.ehowstuff.com/4-lvcreate-command-examples-on-linux/
2015-03-25T15:09:00
[ "LVM", "lvcreate" ]
https://linux.cn/article-5117-1.html
4 个 lvcreate 常用命令举例 =================== 逻辑卷管理(LVM)是广泛使用的技术,并拥有极其灵活磁盘管理方案。主要包含3个基础命令: 1. 创建物理卷使用**pvcreate** 2. 创建卷组并给卷组增加分区**vgcreate** 3. 创建新的逻辑卷使用**lvcreate** ![](/data/attachment/album/201503/24/151342nssnn5bshbefh5ao.jpg) 下列例子主要讲述在已经存在的卷组上使用**lvcreate**创建逻辑卷。**lvcreate**命令可以在卷组的可用物理扩展池中分配逻辑扩展。通常,逻辑卷可以随意使用底层逻辑卷上的任意空间。修改逻辑卷将释放或重新分配物理卷的空间。这些例子已经在CentOS 5, CentOS 6, CentOS 7, RHEL 5, RHEl 6 和 RHEL 7 版本中测试通过。 ### 4个lvcreate命令例子 1. 在名为vg\_newlvm的卷组中创建15G大小的逻辑卷: ``` [root@centos7 ~]# lvcreate -L 15G vg_newlvm ``` 2. 在名为vg*newlvm的卷组中创建大小为2500MB的逻辑卷,并命名为centos7*newvol,这样就创建了块设备/dev/vg*newlvm/centos7*newvol: ``` [root@centos7 ~]# lvcreate -L 2500 -n centos7_newvol vg_newlvm ``` 3. 可以使用**lvcreate**命令的参数-l来指定逻辑卷扩展的大小。也可以使用这个参数以卷组的大小百分比来扩展逻辑卷。这下列的命令创建了centos7*newvol卷组的50%大小的逻辑卷vg*newlvm: ``` [root@centos7 ~]# lvcreate -l 50%VG -n centos7_newvol vg_newlvm ``` 4. 使用卷组剩下的所有空间创建逻辑卷 ``` [root@centos7 ~]# lvcreate --name centos7newvol -l 100%FREE vgnewlvm ``` 更多帮助,使用**lvcreate**命令--help选项来查看: ``` [root@centos7 ~]# lvcreate --help ``` --- ``` lvcreate: Create a logical volume(创建逻辑卷) lvcreate [-A|--autobackup {y|n}](自动备份) [-a|--activate [a|e|l]{y|n}] [--addtag Tag](增加标签) [--alloc AllocationPolicy](分配策略) [--cachemode CacheMode](Cache模式) [-C|--contiguous {y|n}] [-d|--debug] [-h|-?|--help] [--ignoremonitoring](忽略监控) [--monitor {y|n}](监控) [-i|--stripes Stripes [-I|--stripesize StripeSize]] [-k|--setactivationskip {y|n}] [-K|--ignoreactivationskip] {-l|--extents LogicalExtentsNumber[%{VG|PVS|FREE}] |(逻辑扩展数) -L|--size LogicalVolumeSize[bBsSkKmMgGtTpPeE]}(逻辑卷大小) [-M|--persistent {y|n}] [--major major] [--minor minor] [-m|--mirrors Mirrors [--nosync] [{--mirrorlog {disk|core|mirrored}|--corelog}]](镜像) [-n|--name LogicalVolumeName](逻辑卷名字) [--noudevsync] [-p|--permission {r|rw}] [--[raid]minrecoveryrate Rate] [--[raid]maxrecoveryrate Rate] [-r|--readahead ReadAheadSectors|auto|none](读取头扇区) [-R|--regionsize MirrorLogRegionSize](镜像逻辑区域尺寸) [-T|--thin [-c|--chunksize ChunkSize](块大小) [--discards {ignore|nopassdown|passdown}] [--poolmetadatasize MetadataSize[bBsSkKmMgG]]] [--poolmetadataspare {y|n}] [--thinpool ThinPoolLogicalVolume{Name|Path}] (精简池逻辑卷) [-t|--test] [--type VolumeType](卷类型) [-v|--verbose] [-W|--wipesignatures {y|n}] [-Z|--zero {y|n}] [--version] VolumeGroupName [PhysicalVolumePath...] ``` --- via: <http://www.ehowstuff.com/4-lvcreate-command-examples-on-linux/> 作者:[skytech](http://www.ehowstuff.com/author/mhstar/) 译者:[Vic020](https://github.com/Vic020) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,118
性能优化:使用ramlog将日志文件转移到内存中
http://www.ubuntugeek.com/improve-system-performance-by-moving-your-log-files-to-ram-using-ramlog.html
2015-03-26T07:21:00
[ "ramlog", "日志", "内存" ]
https://linux.cn/article-5118-1.html
Ramlog 以系统守护进程的形式运行。在系统启动时它创建虚拟磁盘(ramdisk),将 /var/log 下的文件复制到虚拟磁盘中,同时把虚拟磁盘挂载为/var/log。然后所有的日志就会更新到虚拟磁盘上。而当 ramlog 重启或停止时,需要记录到硬盘上的日志就会保留在目录/var/log.hdd中。而关机的时候,(ramdisk上的)日志文件会重新保存到硬盘上,以确保日志一致性。Ramlog 2.x默认使用tmpfs文件系统,同时也可以支持ramfs和内核ramdisk。使用rsync(译注:Linux数据镜像备份工具)这个工具来同步日志。 注意:如果突然断电或者内核崩溃(kernel panic)时,没有保存进硬盘的日志将会丢失。 如果你拥有够多的可用内存,而又想把日志放进虚拟磁盘,就安装ramlog吧。它是笔记本用户、带有UPS的系统或是直接在flash中运行的系统的优良选择,可以节省日志的写入时间。 ![](/data/attachment/album/201503/24/162817udy63cdzf2jyld7a.png) Ramlog的运行机制以及步骤如下: 1. Ramlog 由第一个守护进程(这取决于你所安装过的其它守护进程)启动。 2. 然后创建目录/var/log.hdd并将其硬链至/var/log。 3. 如果使用的是tmpfs(默认)或者ramfs 文件系统,将其挂载到/var/log上。 4. 而如果使用的是内核ramdisk,ramdisk会在/dev/ram9中创建,并将其挂载至/var/log。默认情况下ramlog会占用所有ramdisk的内存,其大小由内核参数"ramdisk\_size"指定。 5. 接着其它的守护进程被启动,并在ramdisk中更新日志。Logrotate(译注:Linux日志轮替工具)和 ramdisk 配合的也很好。 6. 重启(默认一天一次)ramlog时,目录/var/log.hdd将借助rsync与/var/log保持同步。日志自动保存的频率可以通过cron(译注:Linux例行性工作调度)来控制。默认情况下,ramlog 的调度任务放置在目录/etc/cron.daily下。 7. 系统关机时,ramlog在最后一个守护进程关闭之前关闭。 8. 在ramlog关闭期间,/var/log.hdd中的文件将被同步至/var/log,接着/var/log和/var/log.hdd都被卸载,然后删除空目录/var/log.hdd。 **注意:- 此文仅面向高级用户** ### 在Ubuntu中安装Ramlog 首先需要用以下命令,从[这里](http://www.tremende.com/ramlog/download/ramlog_2.0.0_all.deb)下载.deb安装包: ``` wget http://www.tremende.com/ramlog/download/ramlog_2.0.0_all.deb ``` 下载ramlog\_2.0.0\_all.deb安装包完毕,使用以下命令进行安装: ``` sudo dpkg -i ramlog_2.0.0_all.deb ``` 这一步会完成整个安装,现在你需要运行以下命令: ``` sudo update-rc.d ramlog start 2 2 3 4 5 . stop 99 0 1 6 . ``` 现在,在更新sysklogd的初始化顺序,使之能在ramlog停止运行前正确关闭: ``` sudo update-rc.d -f sysklogd remove sudo update-rc.d sysklogd start 10 2 3 4 5 . stop 90 0 1 6 . ``` 然后重启系统: ``` sudo reboot ``` 系统重启完毕,运行'ramlog getlogsize'来获取你当前的/var/log的空间大小。在此基础之上多分配40%的空间,确保ramdisk有足够的空间(这整个都将作为ramdisk的空间大小)。 编辑引导配置文件,如/etc/grub.conf,、/boot/grub/menu.lst 或/etc/lilo.conf(译注:具体哪个配置文件视不同引导加载程序而定),给你的当前内核的新增选项 'ramdisk\_size=xxx' ,其中xxx是ramdisk的空间大小。 ### 配置Ramlog 基于deb的系统中,Ramlog的配置文件位于/etc/default/ramlog,你可以在该配置文件中设置以下变量: ``` RAMDISKTYPE=0 # 取值: # 0 -- tmpfs (可被交换到交换分区) -- 默认 # 1 -- ramfs (旧内核不能设置最大空间大小, # 不能被交换到交换分区,和 SELinux 不兼容) # 2 -- 老式的内核 ramdisk TMPFS_RAMFS_SIZE= # 可以用于 tmpfs 或 ramfs 的最大内存大小 # 这个值可以是百分比或数值(单位是 Mb),例如: # TMPFS_RAMFS_SIZE=40% # TMPFS_RAMFS_SIZE=100m # 该值为空表示 tmpfs/ramfs 的大小是全部内存的 50% # 更多选项可以参考 ‘man mount' 中的‘Mount options for tmpfs' 一节 # (补充,在较新的内核中,ramfs 支持大小限制, # 虽然 man 中说没有这个挂载选项) # 该选项仅用于 RAMDISKTYPE=0 或 1 时 KERNEL_RAMDISK_SIZE=MAX #以 kb 为单位指定的内核 ramdisk 大小,或者使用 MAX 来使用整个 ramdisk。 #该选项仅用于 RAMDISKTYPE=2 时 LOGGING=1 # 0=关闭, 1=打开 。记录自身的日志到 /var/log/ramdisk LOGNAME=ramlog # 自身的日志文件名 (用于 LOGGING=1时) VERBOSE=1 # 0=关闭, 1=打开 (设置为 1时,启动或停止失败时会调用 teststartstop 将细节 # 写到日志中) ``` ### 在Ubuntu中卸载ramlog 打开终端运行以下命令: ``` sudo dpkg -P ramlog ``` 注意:如果ramlog卸载之前仍在运行,需要重启系统完成整个卸载工作。 --- via: <http://www.ubuntugeek.com/improve-system-performance-by-moving-your-log-files-to-ram-using-ramlog.html> 作者:[ruchi](http://www.ubuntugeek.com/author/ubuntufix) 译者:[soooogreen](https://github.com/soooogreen) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
200
OK
# Improve system performance by moving your log files to RAM Using Ramlog **Sponsored Link** Note: Logs not saved to harddrive are lost in case of power outage or kernel panic. Install ramlog if you have enough of free memory and you want to keep your logs on ramdisk. It is good for notebook users, for systems with UPS or for systems running from flash -- to save some write cycles. How it works and what it does: 1.Ramlog starts among the first daemons (it depends on other daemons you have installed). 2.Directory /var/log.hdd is created and hardlinked to /var/log. 3.In case tmpfs (default) or ramfs is used, it is mounted over /var/log If kernel ramdisk is used, ramdisk created in /dev/ram9 and it is mounted to /var/log, by default ramlog takes all ramdisk memory specified by kernel argument "ramdisk_size". 5.All other daemons are started and all logs are updated in ramdisk. Logrotate works on ramdisk as well. 6.In case ramlog is restarted (by default it is one time per day), directory /var/log.hdd is synchronized with /var/log using rsync. Frequency of the automatic log saves can be controller via cron, by default, the ramlog file is placed into /etc/cron.daily 7.On shutdown ramlog shuts among the last daemons. 8. During ramlog stop phase files from /var/log.hdd are synchronized with /var/log Then /var/log is unmounted, /var/log.hdd is unmounted as well and empty directory /var/log.hdd is deleted. **Note:- This article is for advanced users only** **Install Ramlog in Ubuntu** First you need to download the .deb package from [here](http://www.tremende.com/ramlog/download/ramlog_2.0.0_all.deb) using the following command wget http://www.tremende.com/ramlog/download/ramlog_2.0.0_all.deb Now you should be having ramlog_2.0.0_all.deb package install this package using the following command sudo dpkg -i ramlog_2.0.0_all.deb This will complete the installation now you need to run the following commands sudo update-rc.d ramlog start 2 2 3 4 5 . stop 99 0 1 6 . #Now update sysklogd in init levels, so it is stopped properly before ramlog is stopped: sudo update-rc.d -f sysklogd remove sudo update-rc.d sysklogd start 10 2 3 4 5 . stop 90 0 1 6 . Now you need to restart your system sudo reboot After rebooting you need to run ‘ramlog getlogsize' to determine the size of your actual /var/log.Add about 40% to that number to ensure your ramdisk has sufficient size -- this will be the ramdisk size Edit your boot manager config file such as /etc/grub.conf, /boot/grub/menu.lst or /etc/lilo.conf and add update the actual kernel by adding kernel paramter ‘ramdisk_size=xxx' where xxx is calculated ramdisk size **Configuring Ramlog** Ramlog configuration file is located in /etc/default/ramlog on deb based systems and you can set there below variables: Variable (with default value): Description: RAMDISKTYPE=0 # Values: # 0 -- tmpfs (can be swapped) -- default # 1 -- ramfs (no max size in older kernels, # cannot be swapped, not SELinux friendly) # 2 -- old kernel ramdisk TMPFS_RAMFS_SIZE= #Maximum size of memory to be used by tmpfs or ramfs. # The value can be percentage of total RAM or size in megabytes -- for example: # TMPFS_RAMFS_SIZE=40% # TMPFS_RAMFS_SIZE=100m # Empty value means default tmpfs/ramfs size which is 50% of total RAM. # For more options please check ‘man mount', section ‘Mount options for tmpfs' # (btw -- ramfs supports size limit in newer kernels # as well despite man says there are no mount options) # It has only effect if RAMDISKTYPE=0 or 1 KERNEL_RAMDISK_SIZE=MAX #Kernel ramdisk size in kilobytes or MAX to use entire ramdisk. #It has only effect if RAMDISKTYPE=2 LOGGING=1 # 0=off, 1=on Logs can be found in /var/log/ramdisk LOGNAME=ramlog # name of the ramlog log file (makes sense if LOGGING=1) VERBOSE=1 # 0=off, 1=on (if 1, teststartstop puts detials # to the logs and it is called after start or stop fails) **How to uninstall Ubuntu** Open the terminal and run the following command sudo dpkg -P ramlog Note: If ramlog was running before you uninstalled it, you should reboot your box to finish uninstallation procedure.
5,120
LinSSID:一款Linux下的图形化Wi-Fi扫描器
http://www.unixmen.com/linssid-graphical-wi-fi-scanner-linux/
2015-03-25T14:00:00
[ "LinSSID", "WIFI", "无线网络" ]
https://linux.cn/article-5120-1.html
### 介绍 你可能知道,**LinSSID** 是一款可以用于寻找可用无线网络的图形化软件。它完全开源,用C++写成,使用了Linux wireless tools、Qt5、Qwt6.1,它在外观和功能上与**Inssider** (MS Windows 下的)相近。 ![](/data/attachment/album/201503/24/212539dvn0e7vpd5v78dv7.jpg) ### 安装 你可以使用源码安装,如果你使用的是基于DEB的系统比如Ubuntu和LinuxMint等等,你也可以使用PPA安装。 你可用从[这个](http://sourceforge.net/projects/linssid/files/)下载并安装LinSSID。 这里我门将使用PPA来安装并测试这个软件。 添加LinSSID的PPA并输入下面的命令安装。 ``` sudo add-apt-repository ppa:wseverin/ppa sudo apt-get update sudo apt-get install linssid ``` ### 用法 安装完成之后,你可以从菜单或者unity中启动。 你需要输入管理员密码。 ![Password required for iwlist scan_001](/data/attachment/album/201503/24/212549yel56oecxkikeynz.png) 这就是LinSSID的界面。 ![LinSSID_002](/data/attachment/album/201503/24/212554c2zobwbzn1tob3tj.png) 现在选择你想要连接无线网络的网卡,比如这里是wlan0,点击Play按钮来搜寻wi-fi网络列表。 几秒钟之后,LinSSID就会显示wi-fi网络了。 ![LinSSID_003](/data/attachment/album/201503/24/212559t101m66x36mmm0y0.png) 如你在上面的截屏中所见,LinSSID显示SSID名、MAC ID、通道、隐私、加密方式、信号和协议等等信息。当然,你可以让LinSSID显示更多的选项,比如安全设置、带宽等等。要显示这些,进入**View**菜单并选择需要的选项。同样,它显示了不同的通道中的信号随着时间信号强度的变化。最后,它可以工作在2.4Ghz和5Ghz通道上。 就是这样。希望这个工具对你有用。 干杯!! 参考链接: * [LinSSID 主页](http://sourceforge.net/projects/linssid/) --- via: <http://www.unixmen.com/linssid-graphical-wi-fi-scanner-linux/> 作者:[SK](http://www.unixmen.com/author/sk/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,121
如何在 Ubuntu 14.10 上安装 KDE Plasma 5.2
http://itsfoss.com/install-kde-plasma-ubuntu-1410/
2015-03-25T07:20:00
[ "KDE", "Ubuntu", "KDE Plasma" ]
https://linux.cn/article-5121-1.html
![](/data/attachment/album/201503/24/214420co9rmprc7233c22z.jpg) [KDE](https://www.kde.org/) Plasma 5.2已经[发布](https://dot.kde.org/2015/01/27/plasma-52-beautiful-and-featureful)一段时间了,在本篇中我们将看到如何在Ubuntu 14.10 上安装KDE Plasma 5.2。 Ubuntu的默认桌面环境Unity很漂亮还有很多特性,但是如果你问任何有经验的Linux用户关于桌面定制能力,他的回答将是KDE。KDE在定制上是王者并且它得到流行大概是由于Ubuntu有官方的KDE版本,也就是Kubuntu[3](http://www.kubuntu.org/)。 对于Ubuntu(或者任何其他的Linux系统)而言的一个好消息是它们没有绑定在任何特定的桌面环境上,你可以安装额外的桌面环境并在不同的桌面环境间切换。早先我们已经了解如下的桌面环境的安装。 * [如何在Ubuntu 14.04中安装Mate桌面](http://itsfoss.com/install-mate-desktop-ubuntu-14-04/) * [如何在Ubuntu 14.04中安装Cinnamon桌面](http://itsfoss.com/install-cinnamon-24-ubuntu-1404/) * [如何在Ubuntu 14.04中安装Budgie桌面](http://itsfoss.com/install-budgie-desktop-ubuntu-1404/) * [如何在Ubuntu 14.04中安装Gnome Shell](http://itsfoss.com/how-to-install-gnome-in-ubuntu-14-04/) 今天我们要展示如何在Ubuntu 14.10 中如何安装KDE Plasma。 ### 如何在Ubuntu 14.10 上安装KDE Plasma 5.2 在Ubuntu 14.10上安装Plasma之前,你要知道这会下载大概1GB的内容。因此在安装KDE之前要考虑速度和数据存放空间。我们下载所使用的PPA是KDE社区官方提供的。在终端中使用下面的命令: ``` sudo apt-add-repository ppa:kubuntu-ppa/next-backports sudo apt-get update sudo apt-get dist-upgrade sudo apt-get install kubuntu-plasma5-desktop plasma-workspace-wallpapers ``` 在安装中,我们要选择默认的显示管理器。我选择的是默认的LightDM。安装完成后,重启系统。在登录时,点击登录区域旁边的Ubuntu图标。这里选择Plasma。 ![](/data/attachment/album/201503/24/214421d3opjawzf3ja24rp.jpg) 你现在就登录到KDE Plasma了。这里有一个KDE Plasma 5.2在Ubuntu 14.10下的截图: ![](/data/attachment/album/201503/24/214422a1w17k8vvmivr2s6.jpg) ### 从Ubuntu中卸载KDE Plasma 如果你想要卸载它,使用下面的命令从Ubuntu 14.10中卸载KDE Plasma。 ``` sudo apt-get install ppa-purge sudo apt-get remove kubuntu-plasma5-desktop sudo ppa-purge ppa:kubuntu-ppa/next ``` --- via: <http://itsfoss.com/install-kde-plasma-ubuntu-1410/> 作者:[Abhishek](http://itsfoss.com/author/Abhishek/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,122
如何在 Linux 中使用类似智能手机外观的 Conky 天气插件
http://itsfoss.com/weather-conky-linux/
2015-03-26T08:02:00
[ "Conky", "天气" ]
https://linux.cn/article-5122-1.html
![](/data/attachment/album/201503/24/220418xlzzc64tlzr6oxc6.jpg) 智能手机都拥有一些平滑地融入手机外观的天气小插件,现在幸亏有了 Flair Weather Conky,你便可以**在你的 Linux 桌面中拥有像智能手机一样的天气外观**。我们将使用一个 GUI 工具[Conky Manager 在 Linux 中轻松地管理 Conky](http://www.linux.cn/article-3434-1.html)。那就先让我们看看如何在 Ubuntu 14.10,14.04、Linux Mint 17 及其他 Linux 发行版本中安装 Conky Manager 吧。 ### 安装 Conky Manager 打开一个终端并使用下面的命令: ``` sudo add-apt-repository ppa:teejee2008/ppa sudo apt-get update sudo apt-get install conky-manager ``` 你可以阅读这篇关于[如何在 Linux 中使用 Conky Manager](http://www.linux.cn/article-3434-1.html) 的文章。 ### 确保 `curl` 已被安装 请确保 [curl](http://www.computerhope.com/unix/curl.htm) 已被安装。如果没有安装它,可以使用下面的命令来安装: ``` sudo apt-get install curl ``` ### 下载 Flair Weather Conky 从下面的链接下载 Flair Weather Conky 的脚本: * [下载 Flair Weather Conky 的脚本](http://speedracker.deviantart.com/art/Flair-Weather-Conky-Made-for-Conky-Manager-510130311) ### 在 Conky Manager 中使用 Flair Weather Conky 脚本 #### 步骤 1: 同你在 Ubuntu 14.04 中安装主题一样,在你的家目录中应该有一个 `.conky` 目录。假如你使用命令行,我想我不需要告诉你如何找到这个目录。对于新手,请用文件管理器切换到你的家目录下,并按 `Ctrl+H` 来 [在 Ubuntu 中显示隐藏文件](http://itsfoss.com/hide-folders-and-show-hidden-files-in-ubuntu-beginner-trick/)。在这里查找 `.conky` 文件夹,假如没有这个文件夹,则创建一个。 #### 步骤 2: 在 `.conky` 目录中,解压下载到的 Flair Weather 文件。请注意在默认情况下它会自动解压到一个名为 `.conky` 目录下。所以请进入这个目录,将其中的 Flair Weather 文件夹从中取出,然后将它粘贴到真正的 `.conky` 目录下。 #### 步骤 3: Flair Weather 使用 Yahoo 的天气服务,但它不能自动地识别你的位置。你需要手动地编辑它。到[Yahoo 天气](https://weather.yahoo.com/) 网页,然后通过键入你的城市/Pin 码来得到你所在城市的位置 ID号。你可以从网页地址栏中取得位置 ID 号。 ![](/data/attachment/album/201503/24/220420n57uhf479nt55n0j.jpg) #### 步骤 4: 打开 Conky Manager,它应该能够读取新安装的 Conky 脚本。这里有两款样式可用,黑色主题或亮丽主题。你可以选择你偏爱的那一款。当你选择后,你就可以在桌面上看到 conky 的显示了。 在 Flair Weather 中,默认位置被设定为 Melbourne。你必须手动编辑 conky 文件来修改。 ![](/data/attachment/album/201503/24/220423dkkwruunwddq5nzn.jpg) #### 步骤 5: 在上面的截图中,你可以看到有一个编辑选定 conky 脚本的选项,在打开的编辑器中,查找 location 或 WOEID ,更换它为你在 `步骤 3` 中得到的位置 ID 号。然后重启 Conky。 ![](/data/attachment/album/201503/24/220426fqb9njdfjs43ybpn.jpg) 在上面查找的相同位置,假如你将`u=c` 替换为`u=f`,则温度的单位将从摄氏温标改为华氏温标 。不要忘了重启 Conky 来查看已经做出的修改。 #### 可能的故障排除 在 Ubuntu 14.04 和 Ubuntu 14.10 中,假如你发现 Conky 展示的时间有重叠现象,则请编辑 conky 脚本。查找下面的这些行: ``` ## cairo-compmgr own_window_type override own_window_argb_visual no ``` 然后将内容更换为下面的这些行: ``` ## cairo-compmgr own_window_type dock own_window_argb_visual no ``` 保存更改并重启 conky。这就应该解决了这个问题。感谢 Jesse(这个 Conky 脚本的开发者)给我们提供了这个解决方法和为其他相关问题给予的支持。 ### 尝试一下 在这篇文章中,我们实际上学到了不少东西。我们见证了如何轻松地使用任何 Conky 脚本,如何编辑脚本以及如何使用 Conky Manager 来达到不同的目的。我希望这些对你有用。 需要留心的是,Ubuntu 14.10 用户可能会看到重叠的时间数字。请在开发者 Jesse 绝妙的[Google + 主页](https://plus.google.com/communities/104794997718869399105) 中报告任何相关的问题。 我已经向你展示了在我的系统上 Flair Weather conky 外观的截图。现在是该你尝试它并炫耀你的桌面的时间了。 --- via: <http://itsfoss.com/weather-conky-linux/> 作者:[Abhishek](http://itsfoss.com/author/Abhishek/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,125
权威指南:构建个人私有云,拿回你的数据隐私的控制权!
https://www.howtoforge.com/tutorial/build-your-own-cloud-on-debian-wheezy/
2015-03-25T21:48:00
[ "私有云", "邮件服务", "隐私" ]
https://linux.cn/article-5125-1.html
> > 这篇鸿篇巨制(多达上万字)不但剖析了在你被那些“免费”的服务供养的背后所损失的隐私。事实上,Google、百度、360们比你更了解你自己;而且提出了具体的解决方案,对于稍有技术基础的人来,完整地指导了如何搭建私有云,提供全功能、商业级的邮件服务和云服务。 > > > 此外,文章中的邮件系统部分相当完善,而且,文章的思路清晰,简明扼要。其中包括基础的 SMTP/IMAP 服务自不必提,反垃圾邮件服务、灰名单、SPF、DKIM、Webmail,应有尽有,可以作为搭建产品环境中的邮件系统参考。 > > > 8年里40000多次搜索!这是我的Google搜索历史。你的呢?(可以在[这里](https://history.google.com/history/)自己找一下)有经过这么长时间积累下来的这么多数据点,Google已经能非常精确的推测你对什么感兴趣、曾经的想法、担忧过的事情,以及从你第一次获得Google帐号后这些年里所有这些的变化! 很多非常私人的信息不受自己控制地存储在世界范围内的服务器上 ----------------------------- 比如说你也像我一样从2006年到2013年都是Gmail用户,意味着你收到了30000封以上的电子邮件,以及在这7年里写了差不多5000封电子邮件。这些发送或收到的电子邮件里有很多是非常私人的,私人到你甚至不希望自己的家人或好友可以系统地查看。也许你还写过一些草稿邮件,因为最后一分钟改变主意而从没发出去。但是尽管你从未发出去,这些邮件仍然保存在服务器上的某个地方。结论是,说Google服务器比你最亲密的朋友或家人都更了解你的个人生活一点也不过分。 从统计数据来看,我可以很保险地打赌你拥有一部智能手机。如果不使用联系人应用的话手机将基本没法用,而它默认会将你的联系人信息保存到Google服务器上的Google联系人里。所以,现在Google不仅知道了你的电子邮件,还有了你的离线联系人:你喜欢打给谁、谁来过电话、你发过短信给谁,以及发了些什么。你也不需要听我的片面之词,可以自己检查一下,看看你开放给类似Google Play服务的一些应用的权限,用来读取来电信息以及收到的短信。你是否还会用到手机里自带的日历应用?除非你在设置日程的时候明确地去掉同步,那么Google将精确地知道你将要做什么,一天里的每个时段、每一天、每一年。用iPhone代替Android手机也是一样的,只是Apple会代替Google来掌握你的往来邮件、联系人和日程计划。 你是否还会非常小心地同步自己的联系人信息,在你朋友,同事或家人换工作或换服务商的时候更新他们的电子邮件地址和手机号?这给Google提供了一副你的社交网络的非常精确的、最新的描绘。还有你非常喜欢手机的GPS功能,经常配合Google地图使用。这意味着Google不仅能从日程里知道你在干什么,还知道你在哪儿、住在哪儿、在哪儿工作。然后再关联用户之间的GPS位置信息,Google还能知道你现在可能正在和哪些人来往。 这种泄漏自己私人信息的日常爱好会以一种甚至没人能够预测的方式影响你的生活 ------------------------------------ 总结一下,如果你是一个普通的因特网用户,Google拥有过去差不多10年里你最新的、深度的信息,关于你的兴趣、忧虑、热情、疑问。它还收集了一些你很私人的信息(电子邮件、短信),精确到小时的你的日常活动和位置,一副你社交网络的高精度的描绘。关于你的如此私密的数据,很可能已经超越了你最亲密的朋友,家人或爱人对你的了解。 不敢想象把这些深度的个人信息交给完全陌生的人,就好像把这些信息拷到一个U盘里,然后随便放到某个咖啡厅的桌上,留张纸条说“Olivier Martin的个人数据,请随便”。谁知道什么人会拿到它以及用来干嘛?然而,我们毫不犹豫地把自己的主要信息交给那些对我们的数据很感兴趣的IT公司的陌生人(这是他们制造面包的材料)以及[世界级的数据分析专家](http://research.google.com/workatgoogle.html)手里,也许只是因为我们在点击那个绿色的'接受'按钮时根本没有想这么多。 有这么多的高质量信息,这么多年里,Google可能会比你希望自我了解的更了解你自己:尼玛,回想我过去的数字生活,5年前发出的邮件里有一半我已经不记得了。我很高兴能重新发现早在2005年对xxx主义的兴趣以及第二年加入了[ATTAC](http://www.attac.org/)(一个致力于通过征收金融交易税来限制投机和改善社会公平的组织)。天知道为什么我竟然在2007年这么喜欢跳舞。这些都是无关紧要的信息(你不指望我能爆出什么猛料,是吧?;-)。但是,连接起这些高质量数据点,关于你生活的方方面面(做什么、什么时候、和谁一起、在哪里,...),并跨越这么长时间间隔,应该能推测出你的未来状态。比如说,根据一个17岁女孩的购物习惯,超市甚至可以在他父亲听说之前断定这个女孩怀孕了(这是一个[真实的故事](http://www.nytimes.com/2012/02/19/magazine/shopping-habits.html?pagewanted=all))。谁知道通过像Google所掌握的这些远远超出购物习惯的高质量数据能做些什么?连接起这些点,也许有人能预测你未来几年里口味或观点的变化。如今,[你从未听过的公司声称拥有你500项数据点](http://vimeo.com/ondemand/termsandconditions),包括宗教信仰、性取向和政治观点。提到政治,如果说你决定今后10年内进入政坛会怎么样?你的生活会改变,你的观点也一样,甚至你有时候会有所遗忘,但是Google不会。那你会不会担心你的对手会接触一些可以从Google访问你数据的人并会从你过去这些年里积累的个人数据深渊里挖出一些猛料呢?[就像最近Sony被黑](http://www.techtimes.com/articles/21670/20141208/sony-pictures-hack-nightmare-week-celebs-data-leak-and-threatening-emails-to-employees.htm)一样,多久以后会轮到Google或Facebook,以致让你的个人信息最终永远暴露? 我们大多数人把自己的个人数据托付给这些公司的一个原因就是它们提供免费服务。但是真的免费吗?一般的Google帐号的价值根据评估方式不同会有些差别:你花在写邮件上的时间占到[1000美元/年](http://blog.backupify.com/2012/07/25/what-is-my-gmail-account-really-worth/),你的帐号对于广告产业的价值差不多在[220美元/年](http://adage.com/article/digital/worth-facebook-google/293042/)到[500美元/年](http://vimeo.com/ondemand/termsandconditions)之间。所以这些服务并不是真的免费:会通过广告和我们的数据在未来的一些未知使用来间接付费。 我写的最多的是Google,这是因为这是我托付个人数字信息的,以及目前我所知道做的最好的公司。但是我也提到过Apple或Facebook。这些公司通过它们在设计、工程和我们(曾经)喜欢每天使用的服务方面的神奇进步实实在在地改变了世界。但是这并不是说我们应该把所有我们最私人的个人数据堆积到它们的服务器上并把我们的数字生活托付给它们:潜在的危害实在太大了。 只要5小时,拿回自己以及关心的人的隐私权 -------------------- ![](/data/attachment/album/201503/25/214851hul4ul4e95uzwlmu.jpg) (题图来自 ttgtmedia.com) 但是事实并不是一定必须这样的。你可以生活在21世纪,拿着智能手机,每天都用电子邮件和GPS,却仍然可以保留自己的隐私。你所需要的就是拿回自己个人数据的控制权:邮件、日程、联系人、文件,等等。[Prism-Break.org](https://prism-break.org/en/)网站上列出了一些能帮你掌握个人数据命运的软件。除此以外,控制自己个人数据的最安全和最有效的方式是架设自己的服务器并搭建自己的云。不过你也许只是没有时间或精力去研究具体该怎么做以及如何让它能流畅工作。 这也是这篇文章的意义所在。仅仅5个小时内,我们将配置出一台服务器来支撑你的邮件、联系人、日程表和各种文件,为你、你的朋友和你的家人。这个服务器将设计成一个个人数据中心或云,所以你能时刻保留它的完整控制。数据将自动在你的台式机/笔记本、手机和平板之间同步。从根本上来说,**我们将建立一个系统来代替Gmail、Google文件/Dropbox、Google联系人、Google日历和Picasa**。 为自己做这件事情已经是迈出很大一步了。但是,你个人信息的很大一部分将仍然泄漏出去并保存到硅谷的一些主机上,只是因为和你日常来往的太多人在用Gmail和使用智能手机,所以最好是带上你一些比较亲近的人加入这次探险。 我们将构建的系统能够: * **支持任意数目的域名和用户**。这样就能轻易地和你的家人朋友共享这台服务器,所以他们也能掌控自己的个人数据,并且还能和你一起分摊服务费用。和你一起共享服务器的人可以使用他们自己的域名或者共享你的。 * **允许你从任意网络发送和接收电子邮件**,需要成功登录服务器之后。这样,你可以通过任意的邮件地址、任意设备(台式机、手机、平板)、任意网络(家里、公司、公共网络、...)来发送电子邮件。 * **在发送和接收邮件的时候加密网络数据**,这样,你不信任的人不能钓出你的密码,也不能看到你的私人邮件。 * **提供最先进的反垃圾邮件技术**,结合了已知垃圾邮件黑名单、自动灰名单、和自适应垃圾邮件过滤。如果邮件被误判了只需要简单地把它拖入或拖出垃圾目录就可以重新调校垃圾邮件过滤器。而且,服务器还会为基于社区的反垃圾邮件努力做出贡献。 * **一段时间里只需要几分钟的维护**,基本上只是安装安全更新和简单地检查一下服务器日志。添加一个新的邮件地址只需要在数据库中插入一条记录。除此之外,你可以忘记它的存在过自己的生活。我在14个月之前搭建了本文描述的这个系统,从那以后就一直顺利运行。所以我完全把它给忘了,直到我最近觉得随便按下手机上的‘检查邮件’会导致电子信号一路跑到冰岛(我放置服务器的地方)再回来的想法有点好笑才想起来。 要完成这篇文章里的工作,你需要一点基本的技术能力。如果你知道SMTP和IMAP的区别,什么是DNS,以及对TCP/IP有基本了解的话,就够了。你还将需要一点基本的Unix知识(在命令行下和文件一起工作,基本的系统管理)。然后你需要花总共5小时时间来搭建。 下面是我们将要做的事情的概述。 * 申请一个虚拟私人服务器,一个域名,并把它们配置好 * 设置postfix和dovecot来收发电子邮件 * 阻止垃圾邮件进入你的收件箱 * 确保你发出的邮件能通过垃圾邮件过滤器 * 使用Owncloud提供日历,联系人,文件服务并配置webmail * 在云上同步你的设备 这篇文章是受之前工作的启发并以之为基础 ------------------- 本文很大程度参考了两篇文章,由[Xavier Claude](http://linuxfr.org/news/heberger-son-courriel)和[Drew Crawford](http://sealedabstract.com/code/nsa-proof-your-e-mail-in-2-hours/)写的关于架设私有邮件服务器的介绍。 本文覆盖了Xavier和Drew的文章里所描述的所有功能,除了3个地方Drew有而我没有:邮件推送支持(我喜欢由我主动检查邮件,而其他时候都不会被打扰),邮件全文检索(我一直都没用过),以及使用加密方式存储邮件(我的邮件和数据还没那么重要到要把它们加密后再存到本地服务器上)。如果你需要这些功能,只需要按照Drew的文章里相应部分的说明做就好了,和本文的内容兼容。 和Xavier和Drew的成果比起来,本文有下面几个主要改进: * 根据我自己按Drew文章操作的经验以及原文的大量回复,修改了一些问题和文字错误。我也把本文所介绍的内容仔细检查了几遍,从头开始设定了几次服务器做重复验证以确保能正常工作。 * 低维护:和Xavier的方式比起来,本文增加了在服务器上支持多个邮件域名。这样做是为了尽可能地减少服务器维护工作:基本上,要添加一个域名或用户,只需要往mysql数据库表里增加一行就好了(不需要增加过滤脚本,等等)。 * 我增加了webmail。 * 我增加了设定云服务器的部分,不仅能收发邮件还能管理文件,地址本/联系人(邮件地址,电话号码,生日,等等等),日程表和图片,供所有设备访问使用。 申请一个虚拟私人服务器,一个域名,并把它们配置好 ------------------------ 让我们从设置基础设施开始:我们的虚拟私人主机和我们的域名。 我用过[1984.is](http://www.1984.is/)和[Linode](http://www.linode.com/)提供的虚拟私人主机(VPS),体验非常好。在本文中,我们将使用**Debian Wheezy**,这个在1984和Linode都提供了已经做好的映像文件可以直接布置到你的VPS上。我喜欢1984是因为它的服务器在冰岛,也是唯一使用可再生能源(地热和水力发电)的地方,目前还没有影响过气候变化,不像[大多数美国数据中心目前大多数依赖于烧煤的火力发电站](http://www.greenpeace.org/international/Global/international/publications/climate/2012/iCoal/HowCleanisYourCloud.pdf)。而且,他们注重[民权,透明,自由](http://www.1984.is/about/)以及[免费软件](http://www.fsf.org/)。 最好是在服务器上创建一个文件用来保存后面要用到的各种密码(用户账号、邮件账号、云帐号、数据库帐号)。当然最好是加密一下(可以用[GnuPG](https://www.gnupg.org/)),这样就算用来设定服务器的电脑被偷了或被入侵了,你的服务器就不会那么容易被攻击。 关于注册域名,我已经使用[grandi](http://www.gandi.net/)的服务超过10年了,也很满意。在本文中,我们将开辟一个叫**jhausse.net**的域名。然后在上面增加一个叫**cloud.jhausse.net**的二级域名,并绑定MX纪录。在完成之后,设置比较短的纪录生存时间(TTL)比如300秒,这样你在设置服务器的时候,可以修改你的域并很快测试到结果。 最后,设置PTR纪录(反向DNS),这样IP地址可以反向映射回它的域名。如果你不理解前面这句话,看下[这篇文章](http://www.codinghorror.com/blog/2010/04/so-youd-like-to-send-some-email-through-code.html)来获得相关背景知识。如果你使用Linode的服务,你可以在远程访问这一栏的控制面板里设置PTR纪录。如果是1984,联系一下技术支持来帮你搞定。 在服务器上,我们从添加一个普通用户开始,这样我们不用从头到尾一直用root账号。另外,用root登陆也需要额外多一层安全措施。 ``` adduser roudy ``` 然后,在文件**/etc/ssh/sshd\_config**中设置: ``` PermitRootLogin no ``` 然后重启ssh服务: ``` service ssh reload ``` 然后,我们要修改服务器的主机名。编辑文件**/etc/hostname**,只有一行就是自己的主机名,我们这个例子中是: ``` cloud ``` 然后,编辑ssh服务的公钥文件**/etc/ssh/ssh\_host\_rsa\_key.pub, /etc/ssh/ssh\_host\_dsa\_key.pub, /etc/ssh/ssh\_host\_ecdsa\_key.pub**,这样文件末尾可以反映你的主机名,比如**root@cloud**。然后重启系统保证主机名在系统的每个需要它的角落都生效了。 ``` reboot ``` 我们将更新系统并移除不必要的服务以降低远程攻击的风险。 ``` apt-get update apt-get dist-upgrade service exim4 stop apt-get remove exim4 rpcbind apt-get autoremove apt-get install vim ``` 我喜欢使用vim远程编辑配置文件。打开vim 的自动语法高亮会很有帮助。添加下面这一行到**~/.vimrc**文件中。 ``` syn on ``` 设置postfix和dovecot来收发电子邮件 ------------------------ ### postfix ``` apt-get install postfix postfix-mysql dovecot-core dovecot-imapd dovecot-mysql mysql-server dovecot-lmtpd postgrey ``` 在[Postfix](http://www.postfix.org/)的配置菜单里,选择`Internet Site`,设置这个系统的邮件名称为**jhausse.net**。 现在开始添加一个数据库用于保存主机上管理的域名列表,和每个域名下的用户列表(同时也包括他们各自的密码),以及邮件别名列表(用于从一个地址往另一个地址转发邮件)。 ``` mysqladmin -p create mailserver mysql -p mailserver mysql> GRANT SELECT ON mailserver.* TO 'mailuser'@'localhost' IDENTIFIED BY 'mailuserpass'; mysql> FLUSH PRIVILEGES; mysql> CREATE TABLE `virtual_domains` ( `id` int(11) NOT NULL auto_increment, `name` varchar(50) NOT NULL, PRIMARY KEY (`id`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8; mysql> CREATE TABLE `virtual_users` ( `id` int(11) NOT NULL auto_increment, `domain_id` int(11) NOT NULL, `password` varchar(106) NOT NULL, `email` varchar(100) NOT NULL, PRIMARY KEY (`id`), UNIQUE KEY `email` (`email`), FOREIGN KEY (domain_id) REFERENCES virtual_domains(id) ON DELETE CASCADE ) ENGINE=InnoDB DEFAULT CHARSET=utf8; mysql> CREATE TABLE `virtual_aliases` ( `id` int(11) NOT NULL auto_increment, `domain_id` int(11) NOT NULL, `source` varchar(100) NOT NULL, `destination` varchar(100) NOT NULL, PRIMARY KEY (`id`), FOREIGN KEY (domain_id) REFERENCES virtual_domains(id) ON DELETE CASCADE ) ENGINE=InnoDB DEFAULT CHARSET=utf8; ``` 这里我们为**jhausse.net**域名提供邮件服务。如果还需要加入其他域名,也没问题。我们也会为每个域名设置一个邮件管理地址(postmaster),转寄给**[roudy@jhausse.net](mailto:roudy@jhausse.net)**。 ``` mysql> INSERT INTO virtual_domains (`name`) VALUES ('jhausse.net'); mysql> INSERT INTO virtual_domains (`name`) VALUES ('otherdomain.net'); mysql> INSERT INTO virtual_aliases (`domain_id`, `source`, `destination`) VALUES ('1', 'postmaster', 'roudy@jhausse.net'); mysql> INSERT INTO virtual_aliases (`domain_id`, `source`, `destination`) VALUES ('2', 'postmaster', 'roudy@jhausse.net'); ``` 现在已经添加了一个本地邮件账号**[roudy@jhausse.net](mailto:roudy@jhausse.net)**。首先,为它生成一个密码的哈希串: ``` doveadm pw -s SHA512-CRYPT ``` 然后把哈希值加入到数据库中: ``` mysql> INSERT INTO `mailserver`.`virtual_users` (`domain_id`, `password`, `email`) VALUES ('1', '$6$YOURPASSWORDHASH', 'roudy@jhausse.net'); ``` 现在我们的域名、别名和用户列表都设置好了,然后开始设置postfix(这是一个SMTP服务器,用来发送邮件)。把文件**/etc/postfix/main.cf**替换为下面的内容: ``` myhostname = cloud.jhausse.net myorigin = /etc/mailname mydestination = localhost.localdomain, localhost mynetworks_style = host # We disable relaying in the general case smtpd_recipient_restrictions = permit_mynetworks, reject_unauth_destination # Requirements on servers that contact us: we verify the client is not a # known spammer (reject_rbl_client) and use a graylist mechanism # (postgrey) to help reducing spam (check_policy_service) smtpd_client_restrictions = permit_mynetworks, reject_rbl_client zen.spamhaus.org, check_policy_service inet:127.0.0.1:10023 disable_vrfy_command = yes inet_interfaces = all smtpd_banner = $myhostname ESMTP $mail_name (Debian/GNU) biff = no append_dot_mydomain = no readme_directory = no # TLS parameters smtpd_tls_cert_file=/etc/ssl/certs/cloud.crt smtpd_tls_key_file=/etc/ssl/private/cloud.key smtpd_use_tls=yes smtpd_tls_auth_only = yes smtp_tls_security_level=may smtp_tls_loglevel = 1 smtpd_tls_loglevel = 1 smtpd_tls_received_header = yes smtpd_tls_session_cache_database = btree:${data_directory}/smtpd_scache smtp_tls_session_cache_database = btree:${data_directory}/smtp_scache # Delivery alias_maps = hash:/etc/aliases alias_database = hash:/etc/aliases message_size_limit = 50000000 recipient_delimiter = + # The next lines are useful to set up a backup MX for myfriendsdomain.org # relay_domains = myfriendsdomain.org # relay_recipient_maps = # Virtual domains virtual_transport = lmtp:unix:private/dovecot-lmtp virtual_mailbox_domains = mysql:/etc/postfix/mysql-virtual-mailbox-domains.cf virtual_mailbox_maps = mysql:/etc/postfix/mysql-virtual-mailbox-maps.cf virtual_alias_maps = mysql:/etc/postfix/mysql-virtual-alias-maps.cf local_recipient_maps = $virtual_mailbox_maps ``` 现在我们要让postfix知道如何从我们设定的数据库里找出需要接收邮件的域名。建立一个新文件**/etc/postfix/mysql-virtual-mailbox-domains.cf**并添加以下内容: ``` user = mailuser password = mailuserpass hosts = 127.0.0.1 dbname = mailserver query = SELECT 1 FROM virtual_domains WHERE name='%s' ``` 我们可以让postfix判断给定的电子邮件账号是否存在,创建文件**/etc/postfix/mysql-virtual-mailbox-maps.cf**并写入以下内容: ``` user = mailuser password = mailuserpass hosts = 127.0.0.1 dbname = mailserver query = SELECT 1 FROM virtual_users WHERE email='%s' ``` 最后,postfix会根据文件**/etc/postfix/mysql-virtual-alias-maps.cf**的内容来查找邮件别名 ``` user = mailuser password = mailuserpass hosts = 127.0.0.1 dbname = mailserver query = SELECT virtual_aliases.destination as destination FROM virtual_aliases, virtual_domains WHERE virtual_aliases.source='%u' AND virtual_aliases.domain_id = virtual_domains.id AND virtual_domains.name='%d' ``` 在配置好这些后,现在要测试一下postfix是否能正常查询数据库。我们可以用**postmap**命令测试: ``` postmap -q jhausse.net mysql:/etc/postfix/mysql-virtual-mailbox-domains.cf postmap -q roudy@jhausse.net mysql:/etc/postfix/mysql-virtual-mailbox-maps.cf postmap -q postmaster@jhausse.net mysql:/etc/postfix/mysql-virtual-alias-maps.cf postmap -q bob@jhausse.net mysql:/etc/postfix/mysql-virtual-alias-maps.cf ``` 如果一切都正常配置了的话,头两个查询应该输出1,第3个查询应该输出**[roudy@jhausse.net](mailto:roudy@jhausse.net)**,而最后一个应该什么都不输出。 ### dovecot 现在,让我们设置一下dovecot(一个IMAP服务程序,用来在我们的设备上从服务器获取收到的邮件)。编辑文件**/etc/dovecot/dovecot.conf**设置以下参数: ``` # Enable installed protocol # !include_try /usr/share/dovecot/protocols.d/*.protocol protocols = imap lmtp ``` 这样将只打开imap(让我们可以获取邮件)和lmtp(postfix用来将收件箱里的邮件转给dovecot)。编辑**/etc/dovecot/conf.d/10-mail.conf**并设置以下参数: ``` mail_location = maildir:/var/mail/%d/%n [...] mail_privileged_group = mail [...] first_valid_uid = 0 ``` 这样邮件将被保存到目录 /var/mail/domainname/username 下。注意下这几个选项散布在配置文件的不同位置,有时已经在那里写好了:我们只需要取消注释即可。文件里的其他设定选项,可以维持原样。在本文后面还有很多文件需要用同样的方式更新设置。在文件**/etc/dovecot/conf.d/10-auth.conf**里,设置以下参数: ``` disable_plaintext_auth = yes auth_mechanisms = plain #!include auth-system.conf.ext !include auth-sql.conf.ext ``` 在文件**/etc/dovecot/conf.d/auth-sql.conf.ext**里,设置以下参数: ``` passdb { driver = sql args = /etc/dovecot/dovecot-sql.conf.ext } userdb { driver = static args = uid=mail gid=mail home=/var/mail/%d/%n } ``` 这是告诉dovecot用户的邮件保存在目录/var/mail/domainname/username下,以及如何从我们刚建立的数据库里查找密码。现在我们还需要告诉dovecot具体如何使用数据库。这样需要把下面的内容加入**/etc/dovecot/dovecot-sql.conf.ext**文件: ``` driver = mysql connect = host=localhost dbname=mailserver user=mailuser password=mailuserpass default_pass_scheme = SHA512-CRYPT password_query = SELECT email as user, password FROM virtual_users WHERE email='%u'; ``` 我们现在修改一下配置文件的权限 ``` chown -R mail:dovecot /etc/dovecot chmod -R o-rwx /etc/dovecot ``` 基本差不多了!只是还需要再多编辑几个文件。在文件**/etc/dovecot/conf.d/10-master.conf**里,设置以下参数: ``` service imap-login { inet_listener imap { #port = 143 port = 0 } inet_listener imaps { port = 993 ssl = yes } } service pop3-login { inet_listener pop3 { #port = 110 port = 0 } inet_listener pop3s { #port = 995 #ssl = yes port = 0 } } service lmtp { unix_listener /var/spool/postfix/private/dovecot-lmtp { mode = 0666 group = postfix user = postfix } user = mail } service auth { unix_listener auth-userdb { mode = 0600 user = mail #group = } # Postfix smtp-auth unix_listener /var/spool/postfix/private/auth { mode = 0666 user = postfix group = postfix } # Auth process is run as this user. #user = $default_internal_user user = dovecot } service auth-worker { user = mail } ``` 注意下我们把除了imaps之外所有服务的端口都设置成了0,这样可以有效地禁止这些服务。然后,在文件**/etc/dovecot/conf.d/15-lda.conf**里,指定一个邮箱管理地址: ``` postmaster_address = postmaster@jhausse.net ``` 最后但很重要的一点,我们为服务器需要生成一对公钥和私钥,可以同时用于dovecot和postfix: ``` openssl req -new -newkey rsa:4096 -x509 -days 365 -nodes -out "/etc/ssl/certs/cloud.crt" -keyout "/etc/ssl/private/cloud.key" ``` 请确保你指定了服务器的完全限定域名(FQDN),在本文的例子里: ``` Common Name (e.g. server FQDN or YOUR name) []:cloud.jhausse.net ``` 如果没有的话,我们的客户端会抱怨在SSL证书里的服务器名字和所连接的服务器名字不一致。我们将通过修改配置文件**/etc/dovecot/conf.d/10-ssl.conf**里的如下选项来告诉dovecot使用刚生成的密钥: ``` ssl = required ssl_cert = </etc/ssl/certs/cloud.crt ssl_key = </etc/ssl/private/cloud.key ``` ### 测试 就这些了!现在开始测试postfix和dovecot服务! ``` service dovecot restart service postfix restart ``` 在服务器上,尝试发送邮件给本地用户: ``` telnet localhost 25 EHLO cloud.jhausse.net MAIL FROM:youremail@domain.com RCPT TO:roudy@jhausse.net data Subject: Hallo! This is a test, to check if cloud.jhausse.net is ready to be an MX! Cheers, Roudy . QUIT ``` 服务器应该接受我们的邮件并返回类似消息: ``` 250 2.0.0 Ok: queued as 58D54101DB ``` 如果一切正常的话,检查一下**/var/log/mail.log**里的日志。应该有类似下面的一行: ``` Nov 14 07:57:06 cloud dovecot: lmtp(4375, roudy@jhausse.net): ... saved mail to INBOX ``` 到这里一切都正常吗?不错。现在,让我尝试从不同的机器发邮件,比如说我们用来设定服务器的电脑。这次我们使用加密方式(TLS)和服务器对话: ``` openssl s_client -connect cloud.jhausse.net:25 -starttls smtp EHLO cloud.jhausse.net MAIL FROM:roudy@jhausse.net rcpt to:bob@gmail.com ``` 服务器应该有这样的响应: ``` 554 5.7.1 <bob@gmail.com>: Relay access denied ``` 这个没问题:如果服务器能接受这封邮件而不是返回如上的拒绝消息,那意味着我们架设的postfix是一个对全世界所有垃圾邮件都开放的中继,这将完全没法使用。除了'Relay access denied'消息,你也可能会收到这样的响应: ``` 554 5.7.1 Service unavailable; Client host [87.68.61.119] blocked using zen.spamhaus.org; http://www.spamhaus.org/query/bl?ip=87.68.61.119 ``` 意思是你正尝试从一个被标记成垃圾邮件发送者的IP地址连接服务器。我在通过普通的因特网服务提供商(ISP)连接服务器时曾收到过这样的消息。要解决这个问题,可以试着从另一个主机发起连接,比如另外一个你可以SSH登录的主机。另外一种方式是,你可以修改postfix的**main.cf**配置文件,不要使用Spamhous的RBL,重启postfix服务,然后再检查上面的测试是否正常。不管用哪种方式,最重要的是你要确定一个能工作的,因为我们后面马上要测试其他功能。如果你选择了重新配置postfix不使用RBL,别忘了在完成本文后重新开启RBL并重启postfix,以避免收到一些不必要的垃圾邮件。(LCTT 译者注:在国内可以使用 CASA 的 RBL:cblplus.anti-spam.org.cn,参见:<http://www.anti-spam.org.cn/> 。) 现在,我们试一下往SMTP端口25发送一封有效的邮件,这是一般正常的邮件服务器用来彼此对话的方式: ``` openssl s_client -connect cloud.jhausse.net:25 -starttls smtp EHLO cloud.jhausse.net MAIL FROM:youremail@domain.com RCPT TO:roudy@jhausse.net ``` 服务器应该有这样的响应: ``` Client host rejected: Greylisted, see http://postgrey.schweikert.ch/help/jhausse.net.html ``` 这意味着[postgrey](http://postgrey.schweikert.ch/)工作正常。postgrey做的是用临时错误拒绝未知发送者的邮件。邮件的技术规则是要求邮件服务器尝试重新发送邮件。在5分钟后,postgrey就会接收这封邮件。一般世界范围内遵守规则的邮件服务器都会尝试为我们重复投递邮件,但大多数垃圾邮件发送者不会这样做。所以,等上5分钟,再次通过上面的命令发送一次,然后检查postfix应该正常接收了邮件。 之后,我们检查一下我们可以通过IMAP和dovecot对话获取刚才发送的两封邮件。 ``` openssl s_client -crlf -connect cloud.jhausse.net:993 1 login roudy@jhausse.net "mypassword" 2 LIST "" "*" 3 SELECT INBOX 4 UID fetch 1:1 (UID RFC822.SIZE FLAGS BODY.PEEK[]) 5 LOGOUT ``` 这里,你应该把*mypassword*替换为你自己为这个邮件账号设定的密码。如果能正常工作,基本上我们已经拥有一个能接收邮件的邮件服务器了,通过它我们可以在各种设备(PC/笔记本、平板、手机...)上收取邮件了。 ### 外发(中继)邮件 但是我们不能把邮件给它发送出去,除非我们自己从服务器发送。现在我们将让postfix为我们转发邮件,但是这个只有成功登录才可以,这是为了保证邮件是由服务器上的某个有效帐号发出来的。要做到这个,我们要打开一个特殊的,全程SSL连接的,SASL鉴权的邮件提交服务。在文件**/etc/postfix/master.cf**里设置下面的参数: ``` submission inet n - - - - smtpd -o syslog_name=postfix/submission -o smtpd_tls_security_level=encrypt -o smtpd_sasl_auth_enable=yes -o smtpd_client_restrictions=permit_sasl_authenticated,reject -o smtpd_sasl_type=dovecot -o smtpd_sasl_path=private/auth -o smtpd_sasl_security_options=noanonymous -o smtpd_recipient_restrictions=permit_sasl_authenticated,reject_non_fqdn_recipient,reject_unauth_destination ``` 然后重启postfix服务: ``` service postfix reload ``` 现在,让我们试试从一台不同的机器连接这个服务,确定一下postfix现在能够正常中继我们自己的而不是其他任何人的邮件: ``` openssl s_client -connect cloud.jhausse.net:587 -starttls smtp EHLO cloud.jhausse.net ``` 注意一下服务器建议的'250-AUTH PLAIN'功能,在从端口25连接的时候不会出现。 ``` MAIL FROM:asdf@jkl.net rcpt to:bob@gmail.com 554 5.7.1 <bob@gmail.com>: Relay access denied QUIT ``` 这个没问题,postfix在不认识我们的时候是不会中继邮件的。所以,首先让我们先鉴定一下自己的身份。要这样做,我们首先需要生成一个鉴权字符串: ``` echo -ne '\000roudy@jhausse.net\000mypassword'|base64 ``` 然后让我们尝试再次通过服务器发送邮件: ``` openssl s_client -connect cloud.jhausse.net:587 -starttls smtp EHLO cloud.jhausse.net AUTH PLAIN DGplYW5AMTk4NGNsb3VQLm5ldAA4bmFmNGNvNG5jOA== MAIL FROM:asdf@jkl.net rcpt to:bob@gmail.com ``` 现在postfix应该能正常接收。最后完成这个测试,来检查一下我们的虚拟别名能正常工作,给[postmaster@jhausse.net](mailto:postmaster@jhausse.net)发送一封邮件然后确认一下它会被送到[roudy@jhausse.net](mailto:roudy@jhausse.net): ``` telnet cloud.jhausse.net 25 EHLO cloud.jhausse.net MAIL FROM:youremail@domain.com rcpt to:postmaster@jhausse.net data Subject: Virtual alias test Dear postmaster, Long time no hear! I hope your MX is working smoothly and securely. Yours sincerely, Roudy . QUIT ``` 让我们检查一下邮件是否被正常送到正确的收件箱了: ``` openssl s_client -crlf -connect cloud.jhausse.net:993 1 login roudy@jhausse.net "mypassword" 2 LIST "" "*" 3 SELECT INBOX * 2 EXISTS * 2 RECENT 4 LOGOUT ``` 到这里,我们已经拥有一个能正常工作的邮箱服务器了,能收发邮件。我们可以配置自己的设备来使用它。 PS:不要忘记再次[试试通过端口25往自己架设的服务器上的帐号发送邮件](http://linux.cn/article-5125-5.html#3_29259),来验证你已经没有被postgrey阻挡了。 阻止垃圾邮件进入你的收件箱 ------------- 为了过滤垃圾邮件,我们已经使用了实时黑名单(RBL)和灰名单(postgrey)。现在我们将增加自适应垃圾邮件过滤来让我们的垃圾邮件过滤能力提高一个等级。这意味着我们将为我们的邮件服务器增加人工智能,这样它就能从经验中学习哪些邮件是垃圾哪些不是。我们将使用来实现这个功能。 ``` apt-get install dspam dovecot-antispam postfix-pcre dovecot-sieve ``` dovecot-antispam是一个安装包,可以在我们发现有邮件被dspam误分类了之后让dovecot重新更新垃圾邮件过滤器。基本上,我们所需要做的就只是把邮件放进或拿出垃圾箱。dovecot-antispam将负责调用dspam来更新过滤器。至于postfix-pcre和dovecot-sieve,我们将分别用它们来把接收的邮件传递给垃圾邮件过滤器以及自动把垃圾邮件放入用户的垃圾箱。 在配置文件**/etc/dspam/dspam.conf**里,为以下参数设置相应的值: ``` TrustedDeliveryAgent "/usr/sbin/sendmail" UntrustedDeliveryAgent "/usr/lib/dovecot/deliver -d %u" Tokenizer osb IgnoreHeader X-Spam-Status IgnoreHeader X-Spam-Scanned IgnoreHeader X-Virus-Scanner-Result IgnoreHeader X-Virus-Scanned IgnoreHeader X-DKIM IgnoreHeader DKIM-Signature IgnoreHeader DomainKey-Signature IgnoreHeader X-Google-Dkim-Signature ParseToHeaders on ChangeModeOnParse off ChangeUserOnParse full ServerPID /var/run/dspam/dspam.pid ServerDomainSocketPath "/var/run/dspam/dspam.sock" ClientHost /var/run/dspam/dspam.sock ``` 然后,在配置文件**/etc/dspam/default.prefs**里,把以下参数改为: ``` spamAction=deliver # { quarantine | tag | deliver } -> default:quarantine signatureLocation=headers # { message | headers } -> default:message showFactors=on ``` 现在我们需要把dspam连接到postfix和dovecot上,在配置文件**/etc/postfix/master.cf**最后添加这样两行: ``` dspam unix - n n - 10 pipe flags=Ru user=dspam argv=/usr/bin/dspam --deliver=innocent,spam --user $recipient -i -f $sender -- $recipient dovecot unix - n n - - pipe flags=DRhu user=mail:mail argv=/usr/lib/dovecot/deliver -f ${sender} -d ${recipient} ``` 现在我们将告诉postfix通过dspam来过滤所有提交给服务器端口25(一般的SMTP通信)的新邮件,除非该邮件是从服务器本身发出(permit\_mynetworks)。注意下我们通过SASL鉴权提交给postfix的邮件不会通过dspam过滤,因为我们在前面部分里为这种方式设定了独立的提交服务。编辑文件**/etc/postfix/main.cf**将选项*\*\**smtpd*\_*client\_restrictions\*\*改为如下内容: ``` smtpd_client_restrictions = permit_mynetworks, reject_rbl_client zen.spamhaus.org, check_policy_service inet:127.0.0.1:10023, check_client_access pcre:/etc/postfix/dspam_filter_access ``` 在文件末尾,还需要增加: ``` # For DSPAM, only scan one mail at a time dspam_destination_recipient_limit = 1 ``` 现在我们需要指定我们定义的过滤器。基本上,我们将告诉postfix把所有邮件(如下用 /./ 代表)通过unix套接字发给dspam。创建一个新文件**/etc/postfix/dspam\_filter\_access**并把下面一行写进去: ``` /./ FILTER dspam:unix:/run/dspam/dspam.sock ``` 这是postfix部分的配置。现在让我们为dovecot设置垃圾过滤。在文件**/etc/dovecot/conf.d/20-imap.conf**里,修改**imap mail\_plugin**插件参数为下面的方式: ``` mail_plugins = $mail_plugins antispam ``` 并为lmtp增加一个部分: ``` protocol lmtp { # Space separated list of plugins to load (default is global mail_plugins). mail_plugins = $mail_plugins sieve } ``` 我们现在设置dovecot-antispam插件。编辑文件**/etc/dovecot/conf.d/90-plugin.conf**并把以下内容添加到插件部分: ``` plugin { ... # Antispam (DSPAM) antispam_backend = dspam antispam_allow_append_to_spam = YES antispam_spam = Junk;Spam antispam_trash = Trash;trash antispam_signature = X-DSPAM-Signature antispam_signature_missing = error antispam_dspam_binary = /usr/bin/dspam antispam_dspam_args = --user;%u;--deliver=;--source=error antispam_dspam_spam = --class=spam antispam_dspam_notspam = --class=innocent antispam_dspam_result_header = X-DSPAM-Result } ``` 然后在文件**/etc/dovecot/conf.d/90-sieve.conf**里指定默认的sieve脚本,这个将对服务器上所有用户有效: ``` sieve_default = /etc/dovecot/default.sieve ``` 什么是sieve以及为什么我们需要为所有用户设置一个默认脚本?sieve可以在IMAP服务器上为我们自动处理任务。在我们的例子里,我们想让所有被确定为垃圾的邮件移到垃圾箱而不是收件箱里。我们希望这是服务器上所有用户的默认行为;这是为什么我们把这个脚本设为默认脚本。现在让我们来创建这个脚本,建立一个新文件**/etc/dovecot/default.sieve**并写入以下内容: ``` require ["regex", "fileinto", "imap4flags"]; # Catch mail tagged as Spam, except Spam retrained and delivered to the mailbox if allof (header :regex "X-DSPAM-Result" "^(Spam|Virus|Bl[ao]cklisted)$", not header :contains "X-DSPAM-Reclassified" "Innocent") { # Mark as read # setflag "\\Seen"; # Move into the Junk folder fileinto "Junk"; # Stop processing here stop; } ``` 现在我们需要编译这个脚本好让dovecot能运行它。我们也需要给它合适的权限。 ``` cd /etc/dovecot sievec . chown mail.dovecot default.siev* chmod 0640 default.sieve chmod 0750 default.svbin ``` 最后,我们需要修改dspam需要读取的两个postfix配置文件的权限: ``` chmod 0644 /etc/postfix/dynamicmaps.cf /etc/postfix/main.cf ``` 就这些!让我们重启dovecot和postfix服务: ``` service dovecot restart service postfix restart ``` ### 测试 然后通过从远程主机(比如我们用来设定服务器的电脑)连接服务器来测试一下反垃圾邮件: ``` openssl s_client -connect cloud.jhausse.net:25 -starttls smtp EHLO cloud.jhausse.net MAIL FROM:youremail@domain.com rcpt to:roudy@jhausse.net DATA Subject: DSPAM test Hi Roudy, how'd you like to eat some ham tonight? Yours, J . QUIT ``` 让我们检查一下邮件是否已经送到: ``` openssl s_client -crlf -connect cloud.jhausse.net:993 1 login roudy@jhausse.net "mypassword" 2 LIST "" "*" 3 SELECT INBOX 4 UID fetch 3:3 (UID RFC822.SIZE FLAGS BODY.PEEK[]) ``` 这个应该返回SPAM为邮件增加了一组标记的数据,看上去像这样: ``` X-DSPAM-Result: Innocent X-DSPAM-Processed: Sun Oct 5 16:25:48 2014 X-DSPAM-Confidence: 1.0000 X-DSPAM-Probability: 0.0023 X-DSPAM-Signature: 5431710c178911166011737 X-DSPAM-Factors: 27, Received*Postfix+with, 0.40000, Received*with+#+id, 0.40000, like+#+#+#+ham, 0.40000, some+#+tonight, 0.40000, Received*certificate+requested, 0.40000, Received*client+certificate, 0.40000, Received*for+roudy, 0.40000, Received*Sun+#+#+#+16, 0.40000, Received*Sun+#+Oct, 0.40000, Received*roudy+#+#+#+Oct, 0.40000, eat+some, 0.40000, Received*5+#+#+16, 0.40000, Received*cloud.jhausse.net+#+#+#+id, 0.40000, Roudy+#+#+#+to, 0.40000, Received*Oct+#+16, 0.40000, to+#+#+ham, 0.40000, Received*No+#+#+requested, 0.40000, Received*jhausse.net+#+#+Oct, 0.40000, Received*256+256, 0.40000, like+#+#+some, 0.40000, Received*ESMTPS+id, 0.40000, how'd+#+#+to, 0.40000, tonight+Yours, 0.40000, Received*with+cipher, 0.40000 5 LOGOUT ``` 很好!你现在已经为你服务器上的用户配置好自适应垃圾邮件过滤。当然,每个用户将需要在开始的几周里培训过滤器。要标记一则信息为垃圾,只需要在你的任意设备(电脑,平板,手机)上将它移动到叫“垃圾箱”或“废纸篓”的目录里。否则它将被标记为有用。 确保你发出的邮件能通过垃圾邮件过滤器 ------------------ 这个部分我们的目标是让我们的邮件服务器能尽量干净地出现在世界上,并让垃圾邮件发送者们更难以我们的名义发邮件。作为附加效果,这也有助于让我们的邮件能通过其他邮件服务器的垃圾邮件过滤器。 ### 发送者策略框架(SPF) 发送者策略框架(SPF)是你添加到自己服务器区域里的一份记录,声明了整个因特网上哪些邮件服务器能以你的域名发邮件。设置非常简单,使用[microsoft.com](http://www.microsoft.com/mscorp/safety/content/technologies/senderid/wizard/)上的SPF向导来生成你的SPF记录,然后作为一个TXT记录添加到自己的服务器区域里。看上去像这样: ``` jhausse.net. 300 IN TXT v=spf1 mx mx:cloud.jhausse.net -all ``` ### 反向PTR 我们[之前](http://linux.cn/article-5125-8.html#3_48021)在本文里讨论过这个问题,建议你为自己的服务器正确地设置反向DNS,这样对服务器IP地址的反向查询能返回你服务器的实际名字。 ### OpenDKIM 当我们激活[OpenDKIM](http://opendkim.org/opendkim-README)后,postfix会用密钥为每封发出去的邮件签名。然后我们将把这个密钥存储在DNS域中。这样的话,世界上任意一个邮件服务器都能够检验邮件是否真的是我们发出的,或是由垃圾邮件发送者伪造的。让我们先安装opendkim: ``` apt-get install opendkim opendkim-tools ``` 然后按如下方式编辑**/etc/opendkim.conf**文件的配置: ``` ## ## opendkim.conf -- configuration file for OpenDKIM filter ## Canonicalization relaxed/relaxed ExternalIgnoreList refile:/etc/opendkim/TrustedHosts InternalHosts refile:/etc/opendkim/TrustedHosts KeyTable refile:/etc/opendkim/KeyTable LogWhy Yes MinimumKeyBits 1024 Mode sv PidFile /var/run/opendkim/opendkim.pid SigningTable refile:/etc/opendkim/SigningTable Socket inet:8891@localhost Syslog Yes SyslogSuccess Yes TemporaryDirectory /var/tmp UMask 022 UserID opendkim:opendkim ``` 我们还需要几个额外的文件,需保存在目录**/etc/opendkim**里: ``` mkdir -pv /etc/opendkim/ cd /etc/opendkim/ ``` 让我们建立新文件**/etc/opendkim/TrustedHosts**并写入以下内容: ``` 127.0.0.1 ``` 建立新文件**/etc/opendkim/KeyTable**并写入以下内容: ``` cloudkey jhausse.net:mail:/etc/opendkim/mail.private ``` 这会告诉OpenDKIM我们希望使用一个名叫'cloudkey'的加密密钥,它的内容在文件/etc/opendkim/mail.private里。我们建立另一个名叫**/etc/opendkim/SigningTable**的文件然后写入下面这一行: ``` *@jhausse.net cloudkey ``` 这会告诉OpenDKIM每封从jhausse.net域发出的邮件都应该用'cloudkey'密钥签名。如果我们还有其他域希望也能签名,我们也可以在这里添加。 下一步是生成密钥并修改OpenDKIM配置文件的权限。 ``` opendkim-genkey -r -s mail [-t] chown -Rv opendkim:opendkim /etc/opendkim chmod 0600 /etc/opendkim/* chmod 0700 /etc/opendkim ``` 一开始,最好使用-t开关,这样会通知其他邮件服务器你只是在测试模式下,这样他们就不会丢弃基于你的OpenDKIM签名的邮件(目前来说)。你可以从mail.txt文件里看到OpenDKIM密钥: ``` cat mail.txt ``` 然后把它作为一个TXT记录添加到区域文件里,应该是类似这样的: ``` mail._domainkey.cloud1984.net. 300 IN TXT v=DKIM1; k=rsa; p=MIGfMA0GCSqG... ``` 最后,我们需要告诉postfix来为发出的邮件签名。在文件/etc/postfix/main.cf末尾,添加: ``` # Now for OpenDKIM: we'll sign all outgoing emails smtpd_milters = inet:127.0.0.1:8891 non_smtpd_milters = $smtpd_milters milter_default_action = accept ``` 然后重启相关服务: ``` service postfix reload service opendkim restart ``` ### 测试 现在让我们测试一下是否能找到我们的OpenDKIM公钥并和私钥匹配: ``` opendkim-testkey -d jhausse.net -s mail -k mail.private -vvv ``` 这个应该返回: ``` opendkim-testkey: key OK ``` 这个你可能需要等一会直到域名服务器重新加载该区域(对于Linode,每15分钟会更新一次)。你可以用**dig**来检查区域是否已经重新加载。 如果这个没问题,让我们测试一下其他服务器能验证我们的OpenDKIM签名和SPF记录。要做这个,我们可以用[Brandon Checkett的邮件测试系统](http://www.brandonchecketts.com/emailtest.php)。发送一封邮件到[Brandon的网页](http://www.brandonchecketts.com/emailtest.php)上提供的测试地址,我们可以在服务器上运行下面的命令 ``` mail -s CloudCheck ihAdmTBmUH@www.brandonchecketts.com ``` 在Brandon的网页上,我们应该可以在'DKIM Signature'部分里看到**result = pass**的文字,以及在'SPF Information'部分看到**Result: pass**的文字。如果我们的邮件通过这个测试,只要不加-t开关重新生成OpenDKIM密钥,上传新的密钥到区域文件里,然后重新测试检查是否仍然可以通过这些测试。如果可以的话,恭喜!你已经在你的服务器上成功配置好OpenDKIM和SPF了! 使用Owncloud提供日历,联系人,文件服务并通过Roundcube配置网页邮件 ----------------------------------------- 既然我们已经拥有了一流的邮件服务器,让我们再为它增加在云上保存通讯录,日程表和文件的能力。这些是[Owncloud](http://owncloud.org/)所提供的非常赞的服务。在这个弄好后,我们还会设置一个网页邮件,这样就算你没带任何电子设备出去旅行时,或者说在你的手机或笔记本没电的情况下,也可以通过网吧来检查邮件。 安装Owncloud非常直观,而且在[这里](http://owncloud.org/install/)有非常好的介绍。在Debian系统里,归根结底就是把owncloud的仓库添加到apt源里,下载Owncloud的发行密钥并安装到apt钥匙链中,然后通过apt-get安装Owncloud: ``` echo 'deb http://download.opensuse.org/repositories/isv:/ownCloud:/community/Debian_7.0/ /' >> /etc/apt/sources.list.d/owncloud.list wget http://download.opensuse.org/repositories/isv:ownCloud:community/Debian_6.0/Release.key apt-key add - < Release.key apt-get update apt-get install apache2 owncloud roundcube ``` 在有提示的时候,选择**dbconfig**并设置**roundcube**使用**mysql**。然后,提供一下mysql的root密码并为roundcube的mysql用户设置一个漂亮的密码。然后,按如下方式编辑roundcube的配置文件**/etc/roundcube/main.inc.php**,这样登录roundcube默认会使用你的IMAP服务器: ``` $rcmail_config['default_host'] = 'ssl://localhost'; $rcmail_config['default_port'] = 993; ``` 现在我们来配置一下apache2网页服务器增加SSL支持,这样我们可以和Owncloud和Roundcube对话时使用加密的方式传输我们的密码和数据。让我们打开Apache的SSL模块: ``` a2enmod ssl ``` 然后编辑文件**/etc/apache2/ports.conf**并设定以下参数: ``` NameVirtualHost *:80 Listen 80 ServerName [www.jhausse.net](http://www.jhausse.net) <IfModule mod_ssl.c> # If you add NameVirtualHost *:443 here, you will also have to change # the VirtualHost statement in /etc/apache2/sites-available/default-ssl # to <VirtualHost *:443> # Server Name Indication for SSL named virtual hosts is currently not # supported by MSIE on Windows XP. NameVirtualHost *:443 Listen 443 </IfModule> <IfModule mod_gnutls.c> Listen 443 </IfModule> ``` 我们将在目录**/var/www**下为服务器加密连接**<https://www.jhausse.net>**设定一个默认网站。编辑文件**/etc/apache2/sites-available/default-ssl**: ``` <VirtualHost _default_:443> ServerAdmin webmaster@localhost DocumentRoot /var/www ServerName www.jhausse.net [...] <Directory /var/www/owncloud> Deny from all </Directory> [...] SSLCertificateFile /etc/ssl/certs/cloud.crt SSLCertificateKeyFile /etc/ssl/private/cloud.key [...] </VirtualHost> ``` 然后让我们同时也在目录**/var/www**下设定一个非加密连接**<http://www.jhausse.net>**的默认网站。编辑文件**/etc/apache2/sites-available/default**: ``` <VirtualHost _default_:443> DocumentRoot /var/www ServerName www.jhausse.net [...] <Directory /var/www/owncloud> Deny from all </Directory> </VirtualHost> ``` 这样的话,我们通过把文件放到/var/www目录下让www.jhausse.net使用它们提供网站服务。名叫'Deny from all'的指令可以阻止通过www.jhausse.net访问Owncloud:我们将设定通过**<https://cloud.jhausse.net>**来正常访问。 现在我们将设定网页邮件(roundcube),让它可以通过网址**<https://webmail.jhausse.net>**来访问。编辑文件**/etc/apache2/sites-available/roundcube**并写入以下内容: ``` <IfModule mod_ssl.c> <VirtualHost *:443> ServerAdmin webmaster@localhost DocumentRoot /var/lib/roundcube # The host name under which you'd like to access the webmail ServerName webmail.jhausse.net <Directory /> Options FollowSymLinks AllowOverride None </Directory> ErrorLog ${APACHE_LOG_DIR}/error.log # Possible values include: debug, info, notice, warn, error, crit, # alert, emerg. LogLevel warn CustomLog ${APACHE_LOG_DIR}/ssl_access.log combined # SSL Engine Switch: # Enable/Disable SSL for this virtual host. SSLEngine on # do not allow unsecured connections # SSLRequireSSL SSLCipherSuite HIGH:MEDIUM # A self-signed (snakeoil) certificate can be created by installing # the ssl-cert package. See # /usr/share/doc/apache2.2-common/README.Debian.gz for more info. # If both key and certificate are stored in the same file, only the # SSLCertificateFile directive is needed. SSLCertificateFile /etc/ssl/certs/cloud.crt SSLCertificateKeyFile /etc/ssl/private/cloud.key # Those aliases do not work properly with several hosts on your apache server # Uncomment them to use it or adapt them to your configuration Alias /program/js/tiny_mce/ /usr/share/tinymce/www/ # Access to tinymce files <Directory "/usr/share/tinymce/www/"> Options Indexes MultiViews FollowSymLinks AllowOverride None Order allow,deny allow from all </Directory> <Directory /var/lib/roundcube/> Options +FollowSymLinks # This is needed to parse /var/lib/roundcube/.htaccess. See its # content before setting AllowOverride to None. AllowOverride All order allow,deny allow from all </Directory> # Protecting basic directories: <Directory /var/lib/roundcube/config> Options -FollowSymLinks AllowOverride None </Directory> <Directory /var/lib/roundcube/temp> Options -FollowSymLinks AllowOverride None Order allow,deny Deny from all </Directory> <Directory /var/lib/roundcube/logs> Options -FollowSymLinks AllowOverride None Order allow,deny Deny from all </Directory> <FilesMatch "\.(cgi|shtml|phtml|php)$"> SSLOptions +StdEnvVars </FilesMatch> <Directory /usr/lib/cgi-bin> SSLOptions +StdEnvVars </Directory> # SSL Protocol Adjustments: # The safe and default but still SSL/TLS standard compliant shutdown # approach is that mod_ssl sends the close notify alert but doesn't wait for # the close notify alert from client. When you need a different shutdown # approach you can use one of the following variables: # o ssl-unclean-shutdown: # This forces an unclean shutdown when the connection is closed, i.e. no # SSL close notify alert is send or allowed to received. This violates # the SSL/TLS standard but is needed for some brain-dead browsers. Use # this when you receive I/O errors because of the standard approach where # mod_ssl sends the close notify alert. # o ssl-accurate-shutdown: # This forces an accurate shutdown when the connection is closed, i.e. a # SSL close notify alert is send and mod_ssl waits for the close notify # alert of the client. This is 100% SSL/TLS standard compliant, but in # practice often causes hanging connections with brain-dead browsers. Use # this only for browsers where you know that their SSL implementation # works correctly. # Notice: Most problems of broken clients are also related to the HTTP # keep-alive facility, so you usually additionally want to disable # keep-alive for those clients, too. Use variable "nokeepalive" for this. # Similarly, one has to force some clients to use HTTP/1.0 to workaround # their broken HTTP/1.1 implementation. Use variables "downgrade-1.0" and # "force-response-1.0" for this. BrowserMatch "MSIE [2-6]" \ nokeepalive ssl-unclean-shutdown \ downgrade-1.0 force-response-1.0 # MSIE 7 and newer should be able to use keepalive BrowserMatch "MSIE [17-9]" ssl-unclean-shutdown </VirtualHost> </IfModule> ``` 然后在你的DNS服务商那里声明一下服务器,例如: ``` webmail.jhausse.net. 300 IN CNAME cloud.jhausse.net. ``` 现在让我激活这三个网站: ``` a2ensite default default-ssl roundcube service apache2 restart ``` 关于网页邮件,可以通过网址**<https://webmail.jhausse.net>**来访问,基本上能工作。之后使用邮箱全名(例如[roudy@jhausse.net](mailto:roudy@jhausse.net))和在本文一开始在邮件服务器数据库里设定的密码登录。第一次连接成功,浏览器会警告说证书没有可靠机构的签名。这个没什么关系,只要添加一个例外即可。 最后但很重要的是,我们将通过把以下内容写入到**/etc/apache2/sites-available/owncloud**来为Owncloud创建一个虚拟主机。 ``` <IfModule mod_ssl.c> <VirtualHost *:443> ServerAdmin webmaster@localhost DocumentRoot /var/www/owncloud ServerName cloud.jhausse.net <Directory /> Options FollowSymLinks AllowOverride None </Directory> <Directory /var/www/owncloud> Options Indexes FollowSymLinks MultiViews AllowOverride All Order allow,deny allow from all </Directory> ScriptAlias /cgi-bin/ /usr/lib/cgi-bin/ <Directory "/usr/lib/cgi-bin"> AllowOverride None Options +ExecCGI -MultiViews +SymLinksIfOwnerMatch Order allow,deny Allow from all </Directory> ErrorLog ${APACHE_LOG_DIR}/error.log # Possible values include: debug, info, notice, warn, error, crit, # alert, emerg. LogLevel warn CustomLog ${APACHE_LOG_DIR}/ssl_access.log combined # SSL Engine Switch: # Enable/Disable SSL for this virtual host. SSLEngine on # do not allow unsecured connections # SSLRequireSSL SSLCipherSuite HIGH:MEDIUM SSLCertificateFile /etc/ssl/certs/cloud.crt SSLCertificateKeyFile /etc/ssl/private/cloud.key <FilesMatch "\.(cgi|shtml|phtml|php)$"> SSLOptions +StdEnvVars </FilesMatch> <Directory /usr/lib/cgi-bin> SSLOptions +StdEnvVars </Directory> BrowserMatch "MSIE [2-6]" \ nokeepalive ssl-unclean-shutdown \ downgrade-1.0 force-response-1.0 # MSIE 7 and newer should be able to use keepalive BrowserMatch "MSIE [17-9]" ssl-unclean-shutdown </VirtualHost> </IfModule> ``` 然后通过执行以下命令激活Owncloud: ``` a2ensite owncloud service apache2 reload ``` 之后通过在浏览器里打开链接**<https://cloud.jhausse.net/>**配置一下Owncloud。 就这些了!现在你已经拥有自己的Google Drive,日程表,联系人,Dropbox,以及Gmail!好好享受下新鲜恢复保护的隐私吧!:-) 在云上同步你的设备 --------- 要同步你的邮件,你只需用你喜欢的邮件客户端即可:Android或iOS自带的默认邮件应用,[k9mail](https://code.google.com/p/k9mail/),或者电脑上的Thunderbird。或者你也可以使用我们设置好的网页邮件。 在Owncloud的文档里描述了如何与云端同步你的日程表和联系人。在Android系统中,我用的是CalDAV-Sync,CardDAV-Sync应用桥接了手机上Android自带日历以及联系人应用和Owncloud服务器。 对于文件,有一个叫Owncloud的Android应用可以访问你手机上的文件,然后自动把你拍的图片和视频上传到云中。在你的Mac/PC上访问云端文件也很容易,在[Owncloud文档里有很好的描述](http://doc.owncloud.org/server/7.0/user_manual/files/files.html)。 最后一点提示 ------ 在上线后的前几个星期里,最好每天检查一下日志**/var/log/syslog**和**/var/log/mail.log**以保证一切都在顺利运行。在你邀请其他人(朋友,家人,等等)加入你的服务器之前这很重要。他们信任你能很好地架设个人服务器维护他们的数据,但是如果服务器突然崩溃会让他们很失望。 要添加另一个邮件用户,只要在数据库**mailserver**的**virtual\_users**表中增加一行。 要添加一个域名,只要在**virtual\_domains**表中增加一行。然后更新**/etc/opendkim/SigningTable**为发出的邮件签名,上传OpenDKIM密钥到服务器区域,然后重启OpenDKIM服务。 Owncloud有自己的用户数据库,在用管理员帐号登录后可以修改。 最后,万一在服务器临时崩溃的时候想办法找解决方案很重要。比如说,在服务器恢复之前你的邮件应该送往哪儿?一种方式是找个能帮你做备份MX的朋友,同时你也可以当他的备份MX(看下postfix的配置文件**main.cf**里**relay\_domains**和**relay\_recipient\_maps**里的设定)。与此类似,如果你的服务器被破解然后一个坏蛋把你所有文件删了怎么办?对于这个,考虑增加一个常规备份系统就很重要了。Linode提供了备份选项。在1984.is里,我用crontabs和scp做了一个基本但管用的自动备份系统。 --- via: <https://www.howtoforge.com/tutorial/build-your-own-cloud-on-debian-wheezy/> 作者:[Roudy Jhausse](aboutlinux@free.fr) 译者:[zpl1025](https://github.com/zpl1025) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
200
OK
### On this page [Get back your privacy and control over your data in just a few hours: build your own cloud for you and your friends](#get-back-your-privacy-and-control-over-your-data-in-just-a-few-hours-build-your-own-cloud-for-you-and-your-friends)[Some of the most personal pieces of your identity are stored on servers around the world beyond your control](#some-of-the-most-personal-pieces-of-your-identity-are-stored-on-servers-around-the-world-beyond-your-control)[Your daily habit of handing out your most personal information will impact your life in a way that no one can even forsee](#your-daily-habit-of-handing-out-your-most-personal-information-will-impact-your-life-in-a-way-that-no-one-can-even-forsee)[Claim back your privacy and that of people you care for in just 5h](#claim-back-your-privacy-and-that-of-people-you-care-for-in-just-h)[This article was inspired by and builds upon previous work](#this-article-was-inspired-by-and-builds-upon-previous-work) [Get a Virtual Private Server, a domain name, and set them up](#get-a-virtual-private-server-a-domain-name-and-set-them-up)[Set up postfix and dovecot to send and receive email](#set-up-postfix-and-dovecot-to-send-and-receive-email)[Prevent SPAM from reaching your INBOX](#prevent-spam-from-reaching-your-inbox)[Make sure the emails you send get through spam filters](#make-sure-the-emails-you-send-get-through-spam-filters)[Host calendars, contacts, files with Owncloud and set up a webmail with Roundcube](#host-calendars-contacts-files-with-owncloud-and-set-up-a-webmail-with-roundcube)[Sync your devices to the cloud](#sync-your-devices-to-the-cloud)[Last tips](#last-tips) ## Get back your privacy and control over your data in just a few hours: build your own cloud for you and your friends by Roudy Jhausse <[[email protected]](/cdn-cgi/l/email-protection#0c6d6e63797860656279744c6a7e6969226a7e)> 40'000+ searches over 8 years! That's my Google Search history. How about yours? (you can find out for yourself [here](https://history.google.com/history/)) With so many data points across such a long time, Google has a very precise idea of what you've been interested in, what's been on your mind, what you are worried about, and how that all changed over the years since you first got that Google account. ### Some of the most personal pieces of your identity are stored on servers around the world beyond your control Let's say you've been a Gmail user between 2006 and 2013 like me, meaning you received 30'000+ emails and wrote about 5000 emails over that 7 year period. Some of the emails you sent or received are very personal, maybe so personal that you probably wouldn't like even some family members or close friends to go through them systematically. Maybe you also drafted a few emails that you never sent because you changed your mind at the last minute. But even if you never sent them, these emails are still stored somewhere on a server. As a result, it's fair to say that Google servers know more about your personal life than your closest friends or your family. Statistically, it's a safe bet to consider that you've got a smartphone. You can barely use the phone without using the contacts app which stores your contacts in Google Contact on Google servers by default. So not only does Google know about your emails, but also about your offline contacts: who you like to call, who calls you, whom you text, and what you text them about. You don't have to take my word for it, you can verify for yourself by taking a look at the permissions you gave apps such as the Google Play Service to read the list of people that called you and the SMS you got. Do you also use the calendar app that comes with your phone? Unless you explicitly opted out while setting up your calendar, this means that Google knows precisely what you're up to, at every time of the day, day after day, year after year. The same applies if you chose an iPhone over an Android phone, except Apple gets to know about your correspondance, contacts and schedule instead of Google. Do you also take great care to keep the contacts in your directory up-to-date, updating your friend's, colleagues's and and family's email addresses and phone numbers when they move to a new job or change carrier? That gives Google an extraordinarily accurate, up-to-date picture of your social network. And you love the GPS of your smartphone which you use a lot together with Google Maps. This means Google not only knows what you do from your calendar but also where you are, where you live, where you work. And by correlating GPS location data across users, Google can also tell with whom you may socializing with right now. ### Your daily habit of handing out your most personal information will impact your life in a way that no one can even forsee To summarize, if you are an average internet user, Google has up-to-date, in-depth information about your interests, worries, passions, questions, over almost 10 years. It has a collection of some of your most personal messages (emails, SMS), an hour-by-hour detail of your daily activities and location, and a high-quality picture of your social network. Such an intimate knowledge of you likely goes beyond what your closest friends, family, or your sweetheart know of you. It wouldn't come to mind to give this mass of deeply personal information to complete strangers, for instance by putting it all on a USB key and leaving it on a table in a random cafe with a note saying 'Personal data of Olivier Martin, use as you please'. Who knows who might find it and what they would do with it? Yet, we have no problem handing in core pieces of your identity to strangers at IT companies with a strong interest in our data (that's how they make their bread) and [world-class experts in data analysis](http://research.google.com/workatgoogle.html), perhaps just because it happens by default without us thinking about it when we hit that green 'Accept' button. With so much high-quality information, over the years, Google may well get to know you better than you can ever hope to know yourself: heck, crawling through my digital past right now, I can't remember having written half of the emails I sent five years ago. I am surprised and pleased to rediscover my interest in marxism back in 2005 and my joining [ATTAC](http://www.attac.org/) (an organization which strives to limit speculation and improve social justice by taxing financial transactions) the next year. And god knows why I was so much into dancing shoes back in 2007. These is pretty harmless information (you wouldn't have expected me to reveal something embarassing here, would you? ;-). But by connecting the dots between high-quality data over different aspects of your life (what, when, with whom, where, ...) over such time spans, one may extrapolate predictive statements about you. For instance, from the shopping habits of a 17-year-old girl, supermarkets can tell that she is pregnant before her dad even hears about it ([true story](http://www.nytimes.com/2012/02/19/magazine/shopping-habits.html?pagewanted=all)). Who knows what will become possible with high-quality data the like Google has, which goes well beyond shopping habits? By connecting the dots, maybe one can predict how your tastes or political views will change in the coming years. Today, [companies you have never heard of claim to have 500 data points about you](http://vimeo.com/ondemand/termsandconditions), including religion, sexual orientation and political views. Speaking of politics, what if you decide to go into politics in 10 years from now? Your life may change, your views too, and you may even forget, but Google won't. Will you have to worry that your opponent is in touch with someone who has access to your data at Google and can dig up something embarassing on you from those bottomless wells of personal data you gave away over the years? How long until Google or Facebook get hacked [just like Sony was recently hacked](http://www.techtimes.com/articles/21670/20141208/sony-pictures-hack-nightmare-week-celebs-data-leak-and-threatening-emails-to-employees.htm) and all your personal data end up in the public sphere forever? One of the reason most of us have entrusted our personal data to these companies is that they provide their services for free. But how free is it really? The value of the average Google account varies depending on the method used to estimate it: [1000 USD/year](http://blog.backupify.com/2012/07/25/what-is-my-gmail-account-really-worth/) accounts for the amount of time you invest in writing emails, while the value of your account for the advertisement industry is somewhere between [220 USD/year](http://adage.com/article/digital/worth-facebook-google/293042/) and [500 USD/year](http://vimeo.com/ondemand/termsandconditions). So the service is not exactly free: you pay for it through advertisement and the yet unknown uses that our data may find in the future. I've been writing about Google mostly because that's the company I've entrusted most of my digital identify to so far and hence the one I know best. But I may well have written Apple or Facebook. These companies truly changed the world with their fantastic advances in design, engineering and services we love(d) to use, every day. But it doesn't mean we should stack up all our most personal data in their servers and entrust them with our digital lives: the potential for harm is just too large. ### Claim back your privacy and that of people you care for in just 5h It does not have to be this way. You can live in the 21st century, have a smartphone, use email and GPS on daily basis, and still retain your privacy. All you need to do is get back control over your personal data: emails, calendar, contacts, files, etc.. The [Prism-Break.org](https://prism-break.org/en/) website lists software that help controlling the fate of your personal data. Beyond these options, the safest and most powerful way to get back control over your personal data is to host your cloud yourself, by building your own server. But you may just not have the time and energy to research how exactly to do that and make it work smoothly. That's where the present article fits in. In just 5 hours, we will set up a server to host your emails, contacts, calendars and files for you, your friends and your family. The server is designed to act as a hub or cloud for your personal data, so that you always retain full control over it. The data will automatically be synchronized between your PC/laptop, your phone and your tablet. Essentially, **we will set up a system that replaces Gmail, Google Drive / Dropbox, Google Contacts, Google Calendar and Picasa**. Just doing this for yourself will already be a big step. But then, a significant fraction of your personal information will still leak out and end up on some servers in the silicon valley, just because so many of the people you interact with every day use Gmail and have smartphones. So it's a good idea to have some of the people you are closest to join the adventure. We will build a system that **supports an arbitrary number of domains and users**. This makes it easy to share your server with family and friends, so that they get control over their personal data too and can share the cost of the server with you. The people sharing your server can use their own domain name or share yours.**lets you send and receive your emails from any network**upon successfully logging in onto the server. This way, you can send your emails from any of your email addresses, from any device (PC, phone, tablet), and any network (at home, at work, from a public network, ...)**encrypts network traffic**when sending and receiving emails so people you don't trust won't fish out your password and won't be able to read your private emails.**offers state-of-the-art antispam**, combining black lists of known spammers, automatic greylisting, and adaptative spam filtering. Re-training the adaptative spam filter if an email is misclassified is simply done by moving spam in or out of the Junk/Spam folder. Also, the server will contribute to community-based spam fighting efforts.**requires just a few minutes of maintenance once in a while**, basically to install security updates and briefly check the server logs. Adding a new email address boils down to adding one record to a database. Apart from that, you can just forget about it and live your life. I set up the system described in this article 14 months ago and the thing has just been running smoothly since then. So I completely forgot about it, until I recently smiled at the thought that casually pressing the 'Check email' button of my phone caused electrons to travel all the way to Iceland (where my server sits) and back. To go through this article, you'll need a minimum of technical capabilities. If you know what is the difference between SMTP and IMAP, what is a DNS, and have a basic understanding of TCP/IP, you know enough to follow through. You will also need a basic working knowledge of Unix (working with files from the command line, basic system administration). And you'll need a total of 5 hours of time to set it up. Here's an overview what we will do: [Get a Virtual Private Server, a domain name, and set them up](#VPS)[Set up postfix and dovecot to send and receive email](#mail)[Prevent SPAM from reaching your INBOX](#dspam)[Make sure the emails you send get through spam filters](#SPF)[Host calendars, contacts, files with Owncloud and set up webmail](#owncloud)[Sync your devices to the cloud](#sync) ### This article was inspired by and builds upon previous work This article draws heavily from two other articles, namely [Xavier Claude](http://linuxfr.org/news/heberger-son-courriel)'s and [Drew Crawford](http://sealedabstract.com/code/nsa-proof-your-e-mail-in-2-hours/)'s introduction to email self-hosting. The article includes all the features of Xavier's and Draw's articles, except from three features that Drew had and which I didn't need, namely push support for email (I like to check email only when I decide to, otherwise I get distracted all the time), fulltext search in email (which I don't have a use for), and storing emails in an encrypted form (my emails and data are not critical to the point that I have to encrypt them locally on the server). If you need any of these features, feel free to just add them by following to the respective section of Drew's article, which is compatible with the present one. Compared to Xavier's and Drew's work, the present article improves on several aspects: - it fixes bugs and typos based on my experience with Drew's article and the numerous comments on his original article. I also went through the present article, setting up the server from scratch several times to replicate it and make sure it would work right out of the box. - low maintenance: compared to Xavier's work, the present article adds support for multiple email domains on the server. It does so by requiring the minimum amount of server maintenance possible: basically, to add a domain or a user, just add one row to a mysql table and that's it (no need to add sieve scripts, ...). - I added webmail. - I added a section on setting up a cloud, to host not just your emails but also your files, your addressbook / contacts (emails, phone numbers, birthdays, ...), calendars and pictures for use across your devices. ## Get a Virtual Private Server, a domain name, and set them up Let's start by setting the basic infrastructure: our virtual private server and our domain name. I've had an excellent experience with the Virtual Private Servers (VPS) of [1984.is](http://www.1984.is) and [Linode](http://www.linode.com). In this article, we will use Debian Wheezy, for which both 1984 and Linode provide ready-made images to deploy on your VPS. I like 1984 because the servers are hosted in Iceland which run exclusively on renewable energy (geothermical and hydropower) and hence does not contribute to the climate change, unlike [the coal power plants on which most US-based datacenters currently run on](http://www.greenpeace.org/international/Global/international/publications/climate/2012/iCoal/HowCleanisYourCloud.pdf). Also, they put emphasis on [civil liberties, transparency, freedom](http://www.1984.is/about/) and [Free Software](http://www.fsf.org). It could be a good idea to start a file to store the various passwords we will need to set on the server (user accounts, mail accounts, cloud accounts, database accounts). It's definitely a good idea to encrypt this file (maybe with [GnuPG](https://www.gnupg.org/)), so that it won't be too easy to attack your server even if the computer you use to set up your server gets stolen or compromised. For registering a domain name, I've been using the services of [gandi](http://www.gandi.net) for over 10 years now, also with satisfaction. For this article, we will set up a zone with the name jhausse.net. We then add a host named cloud.jhausse.net to it, set the MX record to that host. While you're at it, set short Time To Lives (TTL) to your records like 300 seconds so that you'll be able to make changes to your zone and test the result rapidly while you're setting up the server. Finally, set the [PTR record (reverse DNS) so that the IP address of the host maps back to its name. If you don't understand the previous sentence, read ][this article](http://www.codinghorror.com/blog/2010/04/so-youd-like-to-send-some-email-through-code.html) to get the background. If you use Linode, you can set the PTR record in the control panel in the Remote Access section. With 1984, contact the tech support who will help you with it. On the server, we will start by adding a non-privledged user, so that we don't end up working as root all the time. Also, to log in as root will require an extra layer of security. adduser roudy Then, in /etc/ssh/sshd_config, we set PermitRootLogin no and reload the ssh server service ssh reload Then, we'll need to change the hostname of the server. Edit /etc/hostname so that it has just a single line with your hostname, in our case cloud Then, edit the ssh server's public key files /etc/ssh/ssh_host_rsa_key.pub, /etc/ssh/ssh_host_dsa_key.pub, /etc/ssh/ssh_host_ecdsa_key.pub so that the end of the file reflects your hostname, or instance root@cloud. Then restart the system to make sure the hostname is fixed wherever is should be reboot We will update the system and remove services we don't need to reduce the risk of remote attacks. apt-get update apt-get dist-upgrade service exim4 stop apt-get remove exim4 rpcbind apt-get autoremove apt-get install vim I like to use vim for editing config files remotely. For this, it helps to automatically turn on syntax highlighting. We do so by adding syn on to ~/.vimrc. ## Set up postfix and dovecot to send and receive email apt-get install postfix postfix-mysql dovecot-core dovecot-imapd dovecot-mysql mysql-server dovecot-lmtpd postgrey In the [Postfix](http://www.postfix.org/) configuration menu, we select Internet Site, and set the system mail name to jhausse.net. We will now set up a database to store the list of domains hosted on our server, the list of users for each of these domains (together with their password), and a list of mail aliases (to forward email from a given address to another one). mysqladmin -p create mailserver mysql -p mailserver mysql> GRANT SELECT ON mailserver.* TO 'mailuser'@'localhost' IDENTIFIED BY 'mailuserpass'; mysql> FLUSH PRIVILEGES; mysql> CREATE TABLE `virtual_domains` ( `id` int(11) NOT NULL auto_increment, `name` varchar(50) NOT NULL, PRIMARY KEY (`id`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8; mysql> CREATE TABLE `virtual_users` ( `id` int(11) NOT NULL auto_increment, `domain_id` int(11) NOT NULL, `password` varchar(106) NOT NULL, `email` varchar(100) NOT NULL, PRIMARY KEY (`id`), UNIQUE KEY `email` (`email`), FOREIGN KEY (domain_id) REFERENCES virtual_domains(id) ON DELETE CASCADE ) ENGINE=InnoDB DEFAULT CHARSET=utf8; mysql> CREATE TABLE `virtual_aliases` ( `id` int(11) NOT NULL auto_increment, `domain_id` int(11) NOT NULL, `source` varchar(100) NOT NULL, `destination` varchar(100) NOT NULL, PRIMARY KEY (`id`), FOREIGN KEY (domain_id) REFERENCES virtual_domains(id) ON DELETE CASCADE ) ENGINE=InnoDB DEFAULT CHARSET=utf8; We will host the jhausse.net domain. If there are other domains you'd like to host, you can also add them. We also set up a postmaster address for each domain, which forwards to [[email protected]](/cdn-cgi/l/email-protection). mysql> INSERT INTO virtual_domains (`name`) VALUES ('jhausse.net'); mysql> INSERT INTO virtual_domains (`name`) VALUES ('otherdomain.net'); mysql> INSERT INTO virtual_aliases (`domain_id`, `source`, `destination`) VALUES ('1', 'postmaster', '[[email protected]]'); mysql> INSERT INTO virtual_aliases (`domain_id`, `source`, `destination`) VALUES ('2', 'postmaster', '[[email protected]]'); We now add a locally hosted email account [[email protected]](/cdn-cgi/l/email-protection). First, we generate a password hash for it: doveadm pw -s SHA512-CRYPT and then add the hash to the database mysql> INSERT INTO `mailserver`.`virtual_users` (`domain_id`, `password`, `email`) VALUES ('1', '$6$YOURPASSWORDHASH', '[[email protected]]'); Now that our list of domains, aliases and users are in place, we will set up postfix (SMTP server, for outgoing mail). Replace the contents of /etc/postfix/main.cf with the following: myhostname = cloud.jhausse.net myorigin = /etc/mailname mydestination = localhost.localdomain, localhost mynetworks_style = host # We disable relaying in the general case smtpd_recipient_restrictions = permit_mynetworks, reject_unauth_destination # Requirements on servers that contact us: we verify the client is not a # known spammer (reject_rbl_client) and use a graylist mechanism # (postgrey) to help reducing spam (check_policy_service) smtpd_client_restrictions = permit_mynetworks, reject_rbl_client zen.spamhaus.org, check_policy_service inet:127.0.0.1:10023 disable_vrfy_command = yes inet_interfaces = all smtpd_banner = $myhostname ESMTP $mail_name (Debian/GNU) biff = no append_dot_mydomain = no readme_directory = no # TLS parameters smtpd_tls_cert_file=/etc/ssl/certs/cloud.crt smtpd_tls_key_file=/etc/ssl/private/cloud.key smtpd_use_tls=yes smtpd_tls_auth_only = yes smtp_tls_security_level=may smtp_tls_loglevel = 1 smtpd_tls_loglevel = 1 smtpd_tls_received_header = yes smtpd_tls_session_cache_database = btree:${data_directory}/smtpd_scache smtp_tls_session_cache_database = btree:${data_directory}/smtp_scache # Delivery alias_maps = hash:/etc/aliases alias_database = hash:/etc/aliases message_size_limit = 50000000 recipient_delimiter = + # The next lines are useful to set up a backup MX for myfriendsdomain.org # relay_domains = myfriendsdomain.org # relay_recipient_maps = # Virtual domains virtual_transport = lmtp:unix:private/dovecot-lmtp virtual_mailbox_domains = mysql:/etc/postfix/mysql-virtual-mailbox-domains.cf virtual_mailbox_maps = mysql:/etc/postfix/mysql-virtual-mailbox-maps.cf virtual_alias_maps = mysql:/etc/postfix/mysql-virtual-alias-maps.cf local_recipient_maps = $virtual_mailbox_maps Now we need to teach postfix to figure out which domains we would like him to accept emails for using the database we just set up. Create a new file /etc/postfix/mysql-virtual-mailbox-domains.cf and add the following: user = mailuser password = mailuserpass hosts = 127.0.0.1 dbname = mailserver query = SELECT 1 FROM virtual_domains WHERE name='%s' We teach postfix to find out whether a given email account exists by creating /etc/postfix/mysql-virtual-mailbox-maps.cf with the following content user = mailuser password = mailuserpass hosts = 127.0.0.1 dbname = mailserver query = SELECT 1 FROM virtual_users WHERE email='%s' Finally, postfix will use /etc/postfix/mysql-virtual-alias-maps.cf to look up mail aliases user = mailuser password = mailuserpass hosts = 127.0.0.1 dbname = mailserver query = SELECT virtual_aliases.destination as destination FROM virtual_aliases, virtual_domains WHERE virtual_aliases.source='%u' AND virtual_aliases.domain_id = virtual_domains.id AND virtual_domains.name='%d' With all this in place, it is now time to test if postfix can query our database properly. We can do this using postmap: postmap -q jhausse.net mysql:/etc/postfix/mysql-virtual-mailbox-domains.cf postmap -q[[email protected]]mysql:/etc/postfix/mysql-virtual-mailbox-maps.cf postmap -q[[email protected]]mysql:/etc/postfix/mysql-virtual-alias-maps.cf postmap -q[[email protected]]mysql:/etc/postfix/mysql-virtual-alias-maps.cf If you set up everything properly, the first two queries should return 1, the third query should return [[email protected]](/cdn-cgi/l/email-protection) and the last one should return nothing at all. Now, let's set up dovecot (the IMAP server, to fetch incoming mail on the server from our devices). Edit /etc/dovecot/dovecot.conf to set the following parameters: # Enable installed protocol # !include_try /usr/share/dovecot/protocols.d/*.protocol protocols = imap lmtp which will only enable imap (to let us fetch emails) and lmtp (which postfix will use to pass incoming emails to dovecot). Edit /etc/dovecot/conf.d/10-mail.conf to set the following parameters: mail_location = maildir:/var/mail/%d/%n [...] mail_privileged_group = mail [...] first_valid_uid = 0 which will store emails in /var/mail/domainname/username. Note that these settings are spread at different locations in the file, and are sometimes already there for us to set: we just need to comment them out. The other settings which are already in the file, you can leave as is. We will have to do the same to update settings in many more files in the remaining of this article. In /etc/dovecot/conf.d/10-auth.conf, set the parameters: disable_plaintext_auth = yes auth_mechanisms = plain #!include auth-system.conf.ext !include auth-sql.conf.ext In /etc/dovecot/conf.d/auth-sql.conf.ext, set the following parameters: passdb { driver = sql args = /etc/dovecot/dovecot-sql.conf.ext } userdb { driver = static args = uid=mail gid=mail home=/var/mail/%d/%n } where we just taught dovecot that users have their emails in /var/mail/domainname/username and to look up passwords from the database we just created. Now we still need to teach dovecot how exactly to use the database. To do so, put the following into /etc/dovecot/dovecot-sql.conf.ext: driver = mysql connect = host=localhost dbname=mailserver user=mailuser password=mailuserpass default_pass_scheme = SHA512-CRYPT password_query = SELECT email as user, password FROM virtual_users WHERE email='%u'; We now fix permissions on config files chown -R mail:dovecot /etc/dovecot chmod -R o-rwx /etc/dovecot Almost there! We just need to edit a couple files more. In /etc/dovecot/conf.d/10-master.conf, set the following parameters: service imap-login { inet_listener imap { #port = 143 port = 0 } inet_listener imaps { port = 993 ssl = yes } } service pop3-login { inet_listener pop3 { #port = 110 port = 0 } inet_listener pop3s { #port = 995 #ssl = yes port = 0 } } service lmtp { unix_listener /var/spool/postfix/private/dovecot-lmtp { mode = 0666 group = postfix user = postfix } user = mail } service auth { unix_listener auth-userdb { mode = 0600 user = mail #group = } # Postfix smtp-auth unix_listener /var/spool/postfix/private/auth { mode = 0666 user = postfix group = postfix } # Auth process is run as this user. #user = $default_internal_user user = dovecot } service auth-worker { user = mail } Note that we set ports for all services but imaps to 0, which effectively disables them. Then, in /etc/dovecot/conf.d/15-lda.conf, specify an email address for the postmaster: postmaster_address =[[email protected]] Last but not least, we need to generate a pair of public and private key for the server, which we will use both in dovecot and postfix: openssl req -new -newkey rsa:4096 -x509 -days 365 -nodes -out "/etc/ssl/certs/cloud.crt" -keyout "/etc/ssl/private/cloud.key" Make sure that you specify your the Fully Qualified Domain Name (FQDN) of the server, in our case: Common Name (e.g. server FQDN or YOUR name) []:cloud.jhausse.net If you don't, our clients may complain that the server name in the SSL certificate does not match the name of the server they are connecting to. We tell dovecot to use these keys by setting the following parameters in /etc/dovecot/conf.d/10-ssl.conf: ssl = required ssl_cert = </etc/ssl/certs/cloud.crt ssl_key = </etc/ssl/private/cloud.key That's it! Now on to testing the postfix and dovecot servers! service dovecot restart service postfix restart From the server itself, try to send an email to a local user: telnet localhost 25 EHLO cloud.jhausse.net MAIL FROM:[[email protected]]rcpt to:[[email protected]]data Subject: Hallo! This is a test, to check if cloud.jhausse.net is ready to be an MX! Cheers, Roudy . QUIT The server should accept our email with a message like 250 2.0.0 Ok: queued as 58D54101DB Check the logs in /var/log/mail.log if everything went fine. There should be line saying something like Nov 14 07:57:06 cloud dovecot: lmtp(4375,[[email protected]]): ... saved mail to INBOX So far so good? Good. Now, let's try the same from a different machine, like the computer we are using to set up the server. We'll talk to the server using encryption (TLS) this time: openssl s_client -connect cloud.jhausse.net:25 -starttls smtp EHLO cloud.jhausse.net MAIL FROM:[[email protected]]rcpt to:[[email protected]] to which the server should respond 554 5.7.1 <[[email protected]]>: Relay access denied That's good: had the server accepted the mail, it would have meant that we set up postfix as an open relay for all the spammers of the world and beyhond to use. Instead of the 'Relay access denied' message, you may instead get the message 554 5.7.1 Service unavailable; Client host [87.68.61.119] blocked using zen.spamhaus.org; http://www.spamhaus.org/query/bl?ip=87.68.61.119 This means that you are trying to contact the server from an IP address that is considered as a spammer's address. I got this message while trying to connect to the server through my regular Internet Service Provider (ISP). To fix this issue, you can try to connect from another host, maybe another server you have access to through SSH. Alternatively, you can reconfigure Postfix's main.cf not to use Spamhaus's RBL, reload postfix, and verify that the above test works. In both cases, it's important that you find a solution that works for you because we'll test other things in a minute. If you chose to reconfigure Postfix not to use RBLs, don't forget to put the RBLs back in and to reload postfix after finishing the article to avoid getting more spam than necessary. Now let's [try to send a valid email by SMTP on port 25, which regular mail servers use to talk to each other:] openssl s_client -connect cloud.jhausse.net:25 -starttls smtp EHLO cloud.jhausse.net MAIL FROM:[[email protected]]rcpt to:[[email protected]] to which the server should respond Client host rejected: Greylisted, see http://postgrey.schweikert.ch/help/jhausse.net.html which shows that [postgrey](http://postgrey.schweikert.ch/) is working as it should. What postgrey does it to reject emails with a temporary error if the sender has never been seen before. The technical rules of email require email servers to try to deliver the email again. After five minutes, postgrey will accept the email. Legit email servers around the world will try repeatidly to redeliver the email to us, but most spammers won't. So, wait for 5 minutes, try to send the email again using the command above, and verify that postfix now accepts the email. Afterwards, we'll check that we can fetch the two emails that we just sent ourselves by talking IMAP to dovecot: openssl s_client -crlf -connect cloud.jhausse.net:993 1 login[[email protected]]"mypassword" 2 LIST "" "*" 3 SELECT INBOX 4 UID fetch 1:1 (UID RFC822.SIZE FLAGS BODY.PEEK[]) 5 LOGOUT where you should replace mypassword with the password you set for this email account. If that works, we basically have a functional email server which can receive our incoming emails, and from which we get retreive these emails from our devices (PC/laptop, tablets, phones, ...). But we can't give it our emails to send unless we send them from the server itself. We'll now allow postfix to forward our emails, but only upon successful authentification, that is after it could make sure that the email comes from someone who has a valid account on the server. To do so, we'll open a special, SSL-only, SASL-authentified email submission service. Set the following parameters in /etc/postfix/master.cf: submission inet n - - - - smtpd -o syslog_name=postfix/submission -o smtpd_tls_security_level=encrypt -o smtpd_sasl_auth_enable=yes -o smtpd_client_restrictions=permit_sasl_authenticated,reject -o smtpd_sasl_type=dovecot -o smtpd_sasl_path=private/auth -o smtpd_sasl_security_options=noanonymous -o smtpd_recipient_restrictions=permit_sasl_authenticated,reject_non_fqdn_recipient,reject_unauth_destination and reload postfix service postfix reload Now, let's try to use this service from a different machine than than the server, to verify postfix will now relay our emails and nobody else's: openssl s_client -connect cloud.jhausse.net:587 -starttls smtp EHLO cloud.jhausse.net Notice the '250-AUTH PLAIN' capabilities advertized by server, which doesn't appear when we connect to port 25. MAIL FROM:[[email protected]]rcpt to:[[email protected]]554 5.7.1 <[[email protected]]>: Relay access denied QUIT That's good, postfix won't relay our emails if he doesn't know us. So let's authentify ourselves first. To do so, we first need to generate an authentification string: echo -ne '\[[email protected]]\000mypassword'|base64 and let's try to send emails through the server again: openssl s_client -connect cloud.jhausse.net:587 -starttls smtp EHLO cloud.jhausse.net AUTH PLAIN DGplYW5AMTk4NGNsb3VQLm5ldAA4bmFmNGNvNG5jOA== MAIL FROM:[[email protected]]rcpt to:[[email protected]] which postfix should now accept. To complete the test, let's verify that our virtual aliases work by sending an email to [[email protected]](/cdn-cgi/l/email-protection) and making sure it goes to [[email protected]](/cdn-cgi/l/email-protection): telnet cloud.jhausse.net 25 EHLO cloud.jhausse.net MAIL FROM:[[email protected]]rcpt to:[[email protected]]data Subject: Virtual alias test Dear postmaster, Long time no hear! I hope your MX is working smoothly and securely. Yours sincerely, Roudy . QUIT Let's check the mail made it all the way to the right inbox: openssl s_client -crlf -connect cloud.jhausse.net:993 1 login[[email protected]]"mypassword" 2 LIST "" "*" 3 SELECT INBOX * 2 EXISTS * 2 RECENT 4 LOGOUT At this point, we have a functional email server, both for incoming and outgoing mails. We can set up our devices to use it. PS: did you remember to [try sending an email to an account hosted by the server through port 25](#testPort25) again, to verify that you are not longer blocked by postgrey? ## Prevent SPAM from reaching your INBOX For the sake of SPAM filtering, we already have Realtime BlackLists (RBLs) and greylisting (postgrey) in place. We'll now take our spam fighting capabilities up a notch by adding adaptative spam filtering. This means we'll add artificial intelligence to our email server, so that it can learn from experience what is spam and what is not. We will use [dspam](http://dspam.sourceforge.net/) for that. apt-get install dspam dovecot-antispam postfix-pcre dovecot-sieve dovecot-antispam is a package that allows dovecot to retrain the spam filter if we find an email that is misclassified by dspam. Basically, all we need to do is to move emails in or out of the Junk/Spam folder. dovecot-antispam will then take care of calling dspam to retrain the filter. As for postfix-pcre and dovecot-sieve, we will use them respectively to pass incoming emails through the spam filter and to automatically move spam to the user's Junk/Spam folder. In /etc/dspam/dspam.conf, set the following parameters to these values: TrustedDeliveryAgent "/usr/sbin/sendmail" UntrustedDeliveryAgent "/usr/lib/dovecot/deliver -d %u" Tokenizer osb IgnoreHeader X-Spam-Status IgnoreHeader X-Spam-Scanned IgnoreHeader X-Virus-Scanner-Result IgnoreHeader X-Virus-Scanned IgnoreHeader X-DKIM IgnoreHeader DKIM-Signature IgnoreHeader DomainKey-Signature IgnoreHeader X-Google-Dkim-Signature ParseToHeaders on ChangeModeOnParse off ChangeUserOnParse full ServerPID /var/run/dspam/dspam.pid ServerDomainSocketPath "/var/run/dspam/dspam.sock" ClientHost /var/run/dspam/dspam.sock Then, in /etc/dspam/default.prefs, change the following parameters to: spamAction=deliver # { quarantine | tag | deliver } -> default:quarantine signatureLocation=headers # { message | headers } -> default:message showFactors=on Now we need to connect dspam to postfix and dovecot by adding these two lines at the end of /etc/postfix/master.cf: dspam unix - n n - 10 pipe flags=Ru user=dspam argv=/usr/bin/dspam --deliver=innocent,spam --user $recipient -i -f $sender -- $recipient dovecot unix - n n - - pipe flags=DRhu user=mail:mail argv=/usr/lib/dovecot/deliver -f ${sender} -d ${recipient} Now we will tell postfix to filter every new email that gets submitted to the server on port 25 (normal SMTP traffic) through dspam, except if the email is submitted from the server itself (permit_mynetworks). Note that the emails we submit to postfix with SASL authentication won't be filtered through dspam either, as we set up a separate submission service for those in the previous section. Edit /etc/postfix/main.cf to change the smtpd_client_restrictions to the following: smtpd_client_restrictions = permit_mynetworks, reject_rbl_client zen.spamhaus.org, check_policy_service inet:127.0.0.1:10023, check_client_access pcre:/etc/postfix/dspam_filter_access At the end of the file, also also add: # For DSPAM, only scan one mail at a time dspam_destination_recipient_limit = 1 We now need to specify the filter we defined. Basically, we will tell postfix to send all emails (/./) to dspam through a unix socket. Create a new file /etc/postfix/dspam_filter_access and put the following line into it: /./ FILTER dspam:unix:/run/dspam/dspam.sock That's it for the postfix part. Now let's set up dovecot for spam filtering. In /etc/dovecot/conf.d/20-imap.conf, edit the imap mail_plugins plugins parameter such that: mail_plugins = $mail_plugins antispam and add a section for lmtp: protocol lmtp { # Space separated list of plugins to load (default is global mail_plugins). mail_plugins = $mail_plugins sieve } We now configure the dovecot-antispam plugin. Edit /etc/dovecot/conf.d/90-plugin.conf to add the following content to the plugin section: plugin { ... # Antispam (DSPAM) antispam_backend = dspam antispam_allow_append_to_spam = YES antispam_spam = Junk;Spam antispam_trash = Trash;trash antispam_signature = X-DSPAM-Signature antispam_signature_missing = error antispam_dspam_binary = /usr/bin/dspam antispam_dspam_args = --user;%u;--deliver=;--source=error antispam_dspam_spam = --class=spam antispam_dspam_notspam = --class=innocent antispam_dspam_result_header = X-DSPAM-Result } and in /etc/dovecot/conf.d/90-sieve.conf, specify a default sieve script which will apply to all users of the server: sieve_default = /etc/dovecot/default.sieve What is sieve and why do we need a default script for all users? Sieve lets us automatize tasks on the IMAP server. In our case, we won't all emails identified as spam to be put in the Junk folder instead of in the Inbox. We would like this to be the default behavior for all users on the server; that's why we just set this script as default script. Let's create this script now, by creating a new file /etc/dovecot/default.sieve with the following content: require ["regex", "fileinto", "imap4flags"]; # Catch mail tagged as Spam, except Spam retrained and delivered to the mailbox if allof (header :regex "X-DSPAM-Result" "^(Spam|Virus|Bl[ao]cklisted)$", not header :contains "X-DSPAM-Reclassified" "Innocent") { # Mark as read # setflag "\\Seen"; # Move into the Junk folder fileinto "Junk"; # Stop processing here stop; } Now we need to compile this script so that dovecot can run it. We also need to give it appropriate permissions. cd /etc/dovecot sievec . chown mail.dovecot default.siev* chmod 0640 default.sieve chmod 0750 default.svbin Finally, we need to fix permissions on two postfix config files that dspam needs to read from: chmod 0644 /etc/postfix/dynamicmaps.cf /etc/postfix/main.cf That's it! Let's restart dovecot and postfix service dovecot restart service postfix restart and test the antispam, by contacting the server from a remote host (e.g. the computer we are using to set the server): openssl s_client -connect cloud.jhausse.net:25 -starttls smtp EHLO cloud.jhausse.net MAIL FROM:[[email protected]]rcpt to:[[email protected]]DATA Subject: DSPAM test Hi Roudy, how'd you like to eat some ham tonight? Yours, J . QUIT Let's check if the mail arrived: openssl s_client -crlf -connect cloud.jhausse.net:993 1 login[[email protected]]"mypassword" 2 LIST "" "*" 3 SELECT INBOX 4 UID fetch 3:3 (UID RFC822.SIZE FLAGS BODY.PEEK[]) Which should return something the email with a collection of flag set by SPAM which look like this: X-DSPAM-Result: Innocent X-DSPAM-Processed: Sun Oct 5 16:25:48 2014 X-DSPAM-Confidence: 1.0000 X-DSPAM-Probability: 0.0023 X-DSPAM-Signature: 5431710c178911166011737 X-DSPAM-Factors: 27, Received*Postfix+with, 0.40000, Received*with+#+id, 0.40000, like+#+#+#+ham, 0.40000, some+#+tonight, 0.40000, Received*certificate+requested, 0.40000, Received*client+certificate, 0.40000, Received*for+roudy, 0.40000, Received*Sun+#+#+#+16, 0.40000, Received*Sun+#+Oct, 0.40000, Received*roudy+#+#+#+Oct, 0.40000, eat+some, 0.40000, Received*5+#+#+16, 0.40000, Received*cloud.jhausse.net+#+#+#+id, 0.40000, Roudy+#+#+#+to, 0.40000, Received*Oct+#+16, 0.40000, to+#+#+ham, 0.40000, Received*No+#+#+requested, 0.40000, Received*jhausse.net+#+#+Oct, 0.40000, Received*256+256, 0.40000, like+#+#+some, 0.40000, Received*ESMTPS+id, 0.40000, how'd+#+#+to, 0.40000, tonight+Yours, 0.40000, Received*with+cipher, 0.40000 5 LOGOUT Good! You now have adaptive spam filtering set up for the users of your server. Of course, each user will need to train the filter in the first few weeks. To train a message as spam, just move it to a folder called "Spam" or "Junk" using any of your devices (PC, tablet, phone). Otherwise it'll be trained as ham. ## Make sure the emails you send get through spam filters Our goal in this section will be to make our mail server appear as clean as possible to the world and to make it harder for spammers to send emails in our name. As a side-effect, this will help us get our emails through the spam filters of other mail servers. ### Sender Policy Framework Sender Policy Framework (SPF) is a record that your add to your zone which declares which mail servers on the whole internet can send emails for your domain name. Setting it up is very easy, use the SPF wizard at [microsoft.com](http://www.microsoft.com/mscorp/safety/content/technologies/senderid/wizard/) to generate your SPF record, and then add it to your zone as a TXT record. It will look like this: jhausse.net. 300 IN TXT v=spf1 mx mx:cloud.jhausse.net -all ### Reverse PTR We discussed this point [earlier](#PTR) in this article, it's a good idea that you set up the reverse DNS for your server correctly, so that doing a reverse lookup on the IP address of your server returns the actual name of your server. ### OpenDKIM When we activate [OpenDKIM](http://opendkim.org/opendkim-README), postfix will sign every outgoing email using a cryptographic key. We will then deposit that key in our zone, on the DNS. That way, every mail server in the world will be able to verify if the email actually came from us, or if it was forged by a spammer. Let's install opendkim: apt-get install opendkim opendkim-tools And set it up by editing /etc/opendkim.conf so that it looks like this: ## ## opendkim.conf -- configuration file for OpenDKIM filter ## Canonicalization relaxed/relaxed ExternalIgnoreList refile:/etc/opendkim/TrustedHosts InternalHosts refile:/etc/opendkim/TrustedHosts KeyTable refile:/etc/opendkim/KeyTable LogWhy Yes MinimumKeyBits 1024 Mode sv PidFile /var/run/opendkim/opendkim.pid SigningTable refile:/etc/opendkim/SigningTable Socket inet:8891@localhost Syslog Yes SyslogSuccess Yes TemporaryDirectory /var/tmp UMask 022 UserID opendkim:opendkim We'll need a couple of additional files which we will store in /etc/opendkim: mkdir -pv /etc/opendkim/ cd /etc/opendkim/ Let's create a new file /etc/opendkim/TrustedHosts with the following content 127.0.0.1 and a new file called /etc/opendkim/KeyTable with the following content cloudkey jhausse.net:mail:/etc/opendkim/mail.private This tells OpenDKIM that we want to use an encryption key named 'cloudkey' whose contents can be found in /etc/opendkim/mail.private. We will create another file named /etc/opendkim/SigningTable and add the following line: *@jhausse.net cloudkey which tells OpenDKIM that every emails of the jhausse.net domain should be signed using the key 'cloudkey'. If we have other domains which we want to sign, we can add them here too. The next step is to generate that key and fix permissions on OpenDKIM's config files. opendkim-genkey -r -s mail [-t] chown -Rv opendkim:opendkim /etc/opendkim chmod 0600 /etc/opendkim/* chmod 0700 /etc/opendkim At first, it's a good idea to use the -t which will signal to other mail servers that you are just in testing mode, and that they shouldn't discard emails based on your OpenDKIM signature (yet). You can get your OpenDKIM key from the mail.txt file: cat mail.txt and then add it to your zone file as TXT record, which should look like this mail._domainkey.cloud1984.net. 300 IN TXT v=DKIM1; k=rsa; p=MIGfMA0GCSqG... Finally, we need to tell postfix to sign outgoing emails. At the end of /etc/postfix/main.cf, add: # Now for OpenDKIM: we'll sign all outgoing emails smtpd_milters = inet:127.0.0.1:8891 non_smtpd_milters = $smtpd_milters milter_default_action = accept And reload the corresponding services service postfix reload service opendkim restart Now let's test if our OpenDKIM public key can be found and matches the private key: opendkim-testkey -d jhausse.net -s mail -k mail.private -vvv which should return opendkim-testkey: key OK For this, you may need to wait a bit until the name server has reloaded the zone (on Linode, this happens every 15min). You can use dig to check if the zone was reloaded yet. If this works, let's test if other servers can validate our OpenDKIM signatures and SPF record. To do this, we can use [Brandon Checkett's email test](http://www.brandonchecketts.com/emailtest.php). To send an email to a test address given to us on [Brandon's webpage](http://www.brandonchecketts.com/emailtest.php), we can run the following command on the server mail -s CloudCheck[[email protected]] On Brandon's webpage, you should then see result = pass in the 'DKIM Signature' section, and Result: pass in the 'SPF Information' section. If our emails pass this test, just regenerate an OpenDKIM key without the -t switch, upload the new key to the zone file, and retest to still if it still passes the tests. If so, congrats! You just successfully set up OpenDKIM and SPF on your server! ## Host calendars, contacts, files with Owncloud and set up a webmail with Roundcube Now that we have a top-notch email server, let's add to it the possibility to store your contacts, calendars, and files in the cloud. These are services that the [Owncloud](http://owncloud.org/) provides out of the box. While we're at it, we'll also set up a webmail, so you can check email even if you're travelling without electronics, or in case your phone and laptop run out of battery. Installing Owncloud is straighforward and is well described [here](http://owncloud.org/install/). On Debian, it boils down to adding the owncloud repository to your apt sources, downloading owncloud's release key and adding it to your apt keyring, and then installing owncloud itself using apt-get: echo 'deb http://download.opensuse.org/repositories/isv:/ownCloud:/community/Debian_7.0/ /' >> /etc/apt/sources.list.d/owncloud.list wget http://download.opensuse.org/repositories/isv:ownCloud:community/Debian_6.0/Release.key apt-key add - < Release.key apt-get update apt-get install apache2 owncloud roundcube When prompted for it, choose dbconfig and then say you want roundcube to use mysql. Then, provide the mysql root password and set a good password for the roundcube mysql user. Then, edit the roundcube config file /etc/roundcube/main.inc.php so that logging in on roundcube will default to using your IMAP server: $rcmail_config['default_host'] = 'ssl://localhost'; $rcmail_config['default_port'] = 993; Now we will set up the apache2 webserver with SSL so that we can talk to Owncloud and Roundcube using encryption for our passwords and data. Let's turn on Apache's ssl module: a2enmod ssl and edit /etc/apache2/ports.conf to set the following parameters: NameVirtualHost *:80 Listen 80 ServerName www.jhausse.net <IfModule mod_ssl.c> # If you add NameVirtualHost *:443 here, you will also have to change # the VirtualHost statement in /etc/apache2/sites-available/default-ssl # to <VirtualHost *:443> # Server Name Indication for SSL named virtual hosts is currently not # supported by MSIE on Windows XP. NameVirtualHost *:443 Listen 443 </IfModule> <IfModule mod_gnutls.c> Listen 443 </IfModule> We'll set up a default website for encrypted connections to the webserver as https://www.jhausse.net under /var/www. Edit /etc/apache2/sites-available/default-ssl: <VirtualHost _default_:443> ServerAdmin webmaster@localhost DocumentRoot /var/www ServerName www.jhausse.net [...] <Directory /var/www/owncloud> Deny from all </Directory> [...] SSLCertificateFile /etc/ssl/certs/cloud.crt SSLCertificateKeyFile /etc/ssl/private/cloud.key [...] </VirtualHost> and let's also set up a website for unencrypted connections to http://www.jhausse.net under /var/www. Edit /etc/apache2/sites-available/default: <VirtualHost _default_:443> DocumentRoot /var/www ServerName www.jhausse.net [...] <Directory /var/www/owncloud> Deny from all </Directory> </VirtualHost> That way, we can serve pages for www.jhausse.net by putting them in /var/www. The 'Deny from all' directive prevents access to Owncloud through www.jhausse.net: we will set it up to access it through https://cloud.jhausse.net instead. We will now set up the webmail (roundcube) so that it will be accessed through https://webmail.jhausse.net. Edit /etc/apache2/sites-available/roundcube to have the following content: <IfModule mod_ssl.c> <VirtualHost *:443> ServerAdmin webmaster@localhost DocumentRoot /var/lib/roundcube # The host name under which you'd like to access the webmail ServerName webmail.jhausse.net <Directory /> Options FollowSymLinks AllowOverride None </Directory> ErrorLog ${APACHE_LOG_DIR}/error.log # Possible values include: debug, info, notice, warn, error, crit, # alert, emerg. LogLevel warn CustomLog ${APACHE_LOG_DIR}/ssl_access.log combined # SSL Engine Switch: # Enable/Disable SSL for this virtual host. SSLEngine on # do not allow unsecured connections # SSLRequireSSL SSLCipherSuite HIGH:MEDIUM # A self-signed (snakeoil) certificate can be created by installing # the ssl-cert package. See # /usr/share/doc/apache2.2-common/README.Debian.gz for more info. # If both key and certificate are stored in the same file, only the # SSLCertificateFile directive is needed. SSLCertificateFile /etc/ssl/certs/cloud.crt SSLCertificateKeyFile /etc/ssl/private/cloud.key # Those aliases do not work properly with several hosts on your apache server # Uncomment them to use it or adapt them to your configuration Alias /program/js/tiny_mce/ /usr/share/tinymce/www/ # Access to tinymce files <Directory "/usr/share/tinymce/www/"> Options Indexes MultiViews FollowSymLinks AllowOverride None Order allow,deny allow from all </Directory> <Directory /var/lib/roundcube/> Options +FollowSymLinks # This is needed to parse /var/lib/roundcube/.htaccess. See its # content before setting AllowOverride to None. AllowOverride All order allow,deny allow from all </Directory> # Protecting basic directories: <Directory /var/lib/roundcube/config> Options -FollowSymLinks AllowOverride None </Directory> <Directory /var/lib/roundcube/temp> Options -FollowSymLinks AllowOverride None Order allow,deny Deny from all </Directory> <Directory /var/lib/roundcube/logs> Options -FollowSymLinks AllowOverride None Order allow,deny Deny from all </Directory> <FilesMatch "\.(cgi|shtml|phtml|php)$"> SSLOptions +StdEnvVars </FilesMatch> <Directory /usr/lib/cgi-bin> SSLOptions +StdEnvVars </Directory> # SSL Protocol Adjustments: # The safe and default but still SSL/TLS standard compliant shutdown # approach is that mod_ssl sends the close notify alert but doesn't wait for # the close notify alert from client. When you need a different shutdown # approach you can use one of the following variables: # o ssl-unclean-shutdown: # This forces an unclean shutdown when the connection is closed, i.e. no # SSL close notify alert is send or allowed to received. This violates # the SSL/TLS standard but is needed for some brain-dead browsers. Use # this when you receive I/O errors because of the standard approach where # mod_ssl sends the close notify alert. # o ssl-accurate-shutdown: # This forces an accurate shutdown when the connection is closed, i.e. a # SSL close notify alert is send and mod_ssl waits for the close notify # alert of the client. This is 100% SSL/TLS standard compliant, but in # practice often causes hanging connections with brain-dead browsers. Use # this only for browsers where you know that their SSL implementation # works correctly. # Notice: Most problems of broken clients are also related to the HTTP # keep-alive facility, so you usually additionally want to disable # keep-alive for those clients, too. Use variable "nokeepalive" for this. # Similarly, one has to force some clients to use HTTP/1.0 to workaround # their broken HTTP/1.1 implementation. Use variables "downgrade-1.0" and # "force-response-1.0" for this. BrowserMatch "MSIE [2-6]" \ nokeepalive ssl-unclean-shutdown \ downgrade-1.0 force-response-1.0 # MSIE 7 and newer should be able to use keepalive BrowserMatch "MSIE [17-9]" ssl-unclean-shutdown </VirtualHost> </IfModule> and declare the server in your DNS, for instance: webmail.jhausse.net. 300 IN CNAME cloud.jhausse.net. Now let's enable these three websites a2ensite default default-ssl roundcube service apache2 restart and the webmail, accessible under https://webmail.jhausse.net, should basically work. Log in using the full email (e.g. [[email protected]](/cdn-cgi/l/email-protection)) and the password you set in mailserver DB at the beginning of this article. The first time you connect, the browser will warn you that the certificate was not signed by a certification authority. That's fine, just add an exception. Last but not least, we will create a virtual host for owncloud by putting the following content in /etc/apache2/sites-available/owncloud: <IfModule mod_ssl.c> <VirtualHost *:443> ServerAdmin webmaster@localhost DocumentRoot /var/www/owncloud ServerName cloud.jhausse.net <Directory /> Options FollowSymLinks AllowOverride None </Directory> <Directory /var/www/owncloud> Options Indexes FollowSymLinks MultiViews AllowOverride All Order allow,deny allow from all </Directory> ScriptAlias /cgi-bin/ /usr/lib/cgi-bin/ <Directory "/usr/lib/cgi-bin"> AllowOverride None Options +ExecCGI -MultiViews +SymLinksIfOwnerMatch Order allow,deny Allow from all </Directory> ErrorLog ${APACHE_LOG_DIR}/error.log # Possible values include: debug, info, notice, warn, error, crit, # alert, emerg. LogLevel warn CustomLog ${APACHE_LOG_DIR}/ssl_access.log combined # SSL Engine Switch: # Enable/Disable SSL for this virtual host. SSLEngine on # do not allow unsecured connections # SSLRequireSSL SSLCipherSuite HIGH:MEDIUM SSLCertificateFile /etc/ssl/certs/cloud.crt SSLCertificateKeyFile /etc/ssl/private/cloud.key <FilesMatch "\.(cgi|shtml|phtml|php)$"> SSLOptions +StdEnvVars </FilesMatch> <Directory /usr/lib/cgi-bin> SSLOptions +StdEnvVars </Directory> BrowserMatch "MSIE [2-6]" \ nokeepalive ssl-unclean-shutdown \ downgrade-1.0 force-response-1.0 # MSIE 7 and newer should be able to use keepalive BrowserMatch "MSIE [17-9]" ssl-unclean-shutdown </VirtualHost> </IfModule> and activate owncloud by running a2ensite owncloud service apache2 reload Then go ahead an configure owncloud by connecting to https://cloud.jhausse.net/ in a web browswer. That's it! Now you've got your own Google Drive, Calendar, Contacts, Dropbox, and Gmail! Enjoy your freshly recovered privacy! :-) ## Sync your devices to the cloud To sync your emails, you can just use your favorite email client: the standard email program on Android or iOS, [k9mail](https://code.google.com/p/k9mail/), or Thunderbird on your PC. Or you can also use the webmail we set up. How to sync your calendar and contacts with the cloud is described in the doc of owncloud. On Android, I'm using the CalDAV-Sync and CardDAV-Sync apps which act as bridges between the Android calendar and contacts apps of the phone and the owncloud server. For files, there is an Android app called Owncloud to access your files from your phone and automatically upload pictures and videos you take to your cloud. Accessing your files on the your Mac/PC is easy and [well described in the Owncloud documentation](http://doc.owncloud.org/server/7.0/user_manual/files/files.html). ## Last tips During the first few weeks, it's a good idea to monitor /var/log/syslog and /var/log/mail.log on a daily basis and make sure everything everything is running smoothly. It's important to do so before you invite others (friends, family, ...) to be hosted on your server; you might loose their trust in self-hosting for good if they trust you with their data and the server suddently becomes unavailable. To add another email user, just add a row to the virtual_users table of the mailserver DB. To add a domain, just add a row to the virtual_domains table. Then update /etc/opendkim/SigningTable to get outgoing emails signed, upload the OpenDKIM key to the zone, and reload OpenDKIM. Owncloud has its own user DB which can be managed by logging in in Owncloud as administrator. Finally, it's important to think in advance of a solution in case your server becomes temporarily unavailable. For instance, where would your mails go until your server returns? One solution would be to find a friend who can act as your backup MX, while you act as his backup MX (see the relay_domains and relay_recipient_maps setting in Postfix's main.cf file). Similarly, what if your server is compromised and a malicious individual erases all your files there? For that, it's important to think of a regular backup system. Linode offers backups as an option. On 1984.is, I set up a basic but sufficient automatic backup system using on crontabs and scp.
5,127
在CentOS 7上给一个网卡分配多个IP地址
http://www.unixmen.com/linux-basics-assign-multiple-ip-addresses-single-network-interface-card-centos-7/
2015-03-26T13:58:00
[ "IP地址" ]
https://linux.cn/article-5127-1.html
有时你也许想要给一个网卡多个地址。你该怎么做呢?另外买一个网卡来分配地址?在小型网络中其实不用这么做。我们现在可以在CentOS/RHEL 7中给一个网卡分配多个ip地址。想知道怎么做么?好的,跟随我,这并不难。 ![](/data/attachment/album/201503/26/101151p4cwwf5fr9wf4rtv.jpg) 首先,让我们找到网卡的IP地址。在我的CentOS 7服务器中,我只使用了一个网卡。 用root特权运行下面的命令: ``` ip addr ``` 示例输出: ``` 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: enp0s3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000 link/ether 08:00:27:80:63:19 brd ff:ff:ff:ff:ff:ff inet 192.168.1.150/24 brd 192.168.1.255 scope global enp0s3 valid_lft forever preferred_lft forever ``` 如上所见,我的网卡名是enp0s3,ip地址是192.168.1.150。 如你所知,网卡的配置文件存储在 **/etc/sysconfig/network-scripts/** 目录下。每个网卡的详细内容将会以不同的名字存储,比如**ifcfg-enp0s3**。 让我们看下**ifcfg-enp0s3**的细节。 ``` cat /etc/sysconfig/network-scripts/ifcfg-enp0s3 ``` 示例输出: ``` TYPE="Ethernet" BOOTPROTO="none" DEFROUTE="yes" IPV4_FAILURE_FATAL="no" IPV6INIT="yes" IPV6_AUTOCONF="yes" IPV6_DEFROUTE="yes" IPV6_FAILURE_FATAL="no" NAME="enp0s3" UUID="e9f9caef-cb9e-4a19-aace-767c6ee6f849" ONBOOT="yes" HWADDR="08:00:27:80:63:19" IPADDR0="192.168.1.150" PREFIX0="24" GATEWAY0="192.168.1.1" DNS1="192.168.1.1" IPV6_PEERDNS="yes" IPV6_PEERROUTES="yes" ``` 好的,现在我们将在相同的子网中分配多个地址了。 编辑文件 **/etc/sysconfig/network-scripts/ifcfg-enp0s3**: ``` vi /etc/sysconfig/network-scripts/ifcfg-enp0s3 ``` 像下面那样加入额外的IP地址。 ``` TYPE="Ethernet" BOOTPROTO="none" DEFROUTE="yes" IPV4_FAILURE_FATAL="no" IPV6INIT="yes" IPV6_AUTOCONF="yes" IPV6_DEFROUTE="yes" IPV6_FAILURE_FATAL="no" NAME="enp0s3" UUID="933cdc9b-b383-4ddd-b219-5a72c69c9cf0" ONBOOT="yes" HWADDR="08:00:27:3F:AB:68" IPADDR0="192.168.1.150" IPADDR1="192.168.1.151" IPADDR2="192.168.1.152" PREFIX0="24" GATEWAY0="192.168.1.1" DNS1="192.168.1.1" IPV6_PEERDNS="yes" IPV6_PEERROUTES="yes" ``` 如你所见,我已经加了两个IP地址:**IPADDR1=”192.168.1.151″ & IPADDR2=”192.168.1.152″** 类似地,你可以加入更多的ip地址。 最后,保存并退出文件。重启网络服务来使更改生效。 ``` systemctl restart network ``` 现在,让我们检查是否已经加入了ip地址。 ``` ip addr ``` 示例输出: ``` : lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: enp0s3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000 link/ether 08:00:27:3f:ab:68 brd ff:ff:ff:ff:ff:ff inet 192.168.1.150/24 brd 192.168.1.255 scope global enp0s3 valid_lft forever preferred_lft forever inet 192.168.1.151/24 brd 192.168.1.255 scope global secondary enp0s3 valid_lft forever preferred_lft forever inet 192.168.1.152/24 brd 192.168.1.255 scope global secondary enp0s3 valid_lft forever preferred_lft forever inet6 fe80::a00:27ff:fe3f:ab68/64 scope link valid_lft forever preferred_lft forever ``` 如你所见,单个网卡已经有3个ip地址了。 让我们ping一下新增的IP地址: ``` ping -c 4 192.168.1.151 ``` 示例输出: ``` PING 192.168.1.151 (192.168.1.151) 56(84) bytes of data. 64 bytes from 192.168.1.151: icmp_seq=1 ttl=64 time=0.048 ms 64 bytes from 192.168.1.151: icmp_seq=2 ttl=64 time=0.075 ms 64 bytes from 192.168.1.151: icmp_seq=3 ttl=64 time=0.077 ms 64 bytes from 192.168.1.151: icmp_seq=4 ttl=64 time=0.077 ms --- 192.168.1.151 ping statistics --- 4 packets transmitted, 4 received, 0% packet loss, time 2999ms rtt min/avg/max/mdev = 0.048/0.069/0.077/0.013 ms ``` --- ``` ping -c 4 192.168.1.152 ``` 示例输出: ``` PING 192.168.1.152 (192.168.1.152) 56(84) bytes of data. 64 bytes from 192.168.1.152: icmp_seq=1 ttl=64 time=0.034 ms 64 bytes from 192.168.1.152: icmp_seq=2 ttl=64 time=0.075 ms 64 bytes from 192.168.1.152: icmp_seq=3 ttl=64 time=0.073 ms 64 bytes from 192.168.1.152: icmp_seq=4 ttl=64 time=0.075 ms --- 192.168.1.152 ping statistics --- 4 packets transmitted, 4 received, 0% packet loss, time 2999ms rtt min/avg/max/mdev = 0.034/0.064/0.075/0.018 ms ``` 如果你想要使用**不同的子网**,你要改变**PREFIX0=24**成不同的子网,比如 **PREFIX1=16**。 比如,我想要添加一个A类地址(\**比如10.0.0.1*)到我的网卡中。 ``` TYPE="Ethernet" BOOTPROTO="none" DEFROUTE="yes" IPV4_FAILURE_FATAL="no" IPV6INIT="yes" IPV6_AUTOCONF="yes" IPV6_DEFROUTE="yes" IPV6_FAILURE_FATAL="no" NAME="enp0s3" UUID="933cdc9b-b383-4ddd-b219-5a72c69c9cf0" ONBOOT="yes" HWADDR="08:00:27:3F:AB:68" IPADDR0="192.168.1.150" IPADDR1="192.168.1.151" IPADDR2="192.168.1.152" IPADDR3="10.0.0.1" PREFIX0="24" PREFIX1=16 GATEWAY0="192.168.1.1" DNS1="192.168.1.1" IPV6_PEERDNS="yes" IPV6_PEERROUTES="yes" ``` 你可以看到我已经添加一个A类地址(10.0.0.1)并且前缀是16。 保存并退出文件。重启网络服务,接着,ping新增的地址: ``` ping -c 4 10.0.0.1 ``` 示例输出: ``` PING 10.0.0.1 (10.0.0.1) 56(84) bytes of data. 64 bytes from 10.0.0.1: icmp_seq=1 ttl=64 time=0.097 ms 64 bytes from 10.0.0.1: icmp_seq=2 ttl=64 time=0.073 ms 64 bytes from 10.0.0.1: icmp_seq=3 ttl=64 time=0.074 ms 64 bytes from 10.0.0.1: icmp_seq=4 ttl=64 time=0.075 ms --- 10.0.0.1 ping statistics --- 4 packets transmitted, 4 received, 0% packet loss, time 3000ms rtt min/avg/max/mdev = 0.073/0.079/0.097/0.014 ms ``` 相似地,你可以添加不同的网关。 就是这样。 --- via: <http://www.unixmen.com/linux-basics-assign-multiple-ip-addresses-single-network-interface-card-centos-7/> 作者:[SK](http://www.unixmen.com/author/sk/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,129
怎样在 Linux 中限制网络带宽使用
http://xmodulo.com/limit-network-bandwidth-linux.html
2015-03-27T14:58:00
[ "带宽", "trickle", "wondershaper" ]
https://linux.cn/article-5129-1.html
假如你经常在 Linux 桌面上运行多个网络应用,或在家中让多台电脑共享带宽;那么你可能想更好地控制带宽的使用。否则,当你使用下载器下载一个大文件时,交互式 SSH 会话可能会变得缓慢以至不可用;或者当你通过 Dropbox 来同步一个大文件夹时,你的室友可能会抱怨在她的电脑上,视频流变得断断续续。 在本教程中,我将为你描述两种在 Linux 中限制网络流量速率的不同方法。 ![](/data/attachment/album/201503/26/150146k8rfz0ocerade1re.jpg) ### 在 Linux 中限制一个应用的速率 限制网络流量速率的一种方法是通过一个名为[trickle](http://monkey.org/%7Emarius/trickle)的命令行工具。通过在程序运行时,预先加载一个速率限制 socket 库 的方法,trickle 命令允许你改变任意一个特定程序的流量。 trickle 命令有一个很好的特性是它仅在用户空间中运行,这意味着,你不必需要 root 权限就可以限制一个程序的带宽使用。要能使用 trickle 程序控制程序的带宽,这个程序就必须使用非静态链接库的套接字接口。当你想对一个不具有内置带宽控制功能的程序进行速率限制时,trickle 可以帮得上忙。 在 Ubuntu,Debian 及其衍生发行版中安装 trickle : ``` $ sudo apt-get install trickle ``` 在 Fdora 或 CentOS/RHEL (带有 [EPEL 软件仓库](http://linux.cn/article-2324-1.html)): ``` $ sudo yum install trickle ``` trickle 的基本使用方法如下。仅需简单地把 trickle 命令(及速率参数)放在你想运行的命令之前。 ``` $ trickle -d <download-rate> -u <upload-rate> <command> ``` 这就可以将 `<command>` 的下载和上传速率限定为特定值(单位 KBytes/s)。 例如,将你的 scp 会话的最大上传带宽设定为 100 KB/s: ``` $ trickle -u 100 scp backup.tgz alice@remote_host.com: ``` 如若你想,你可以通过创建一个[自定义启动器](http://xmodulo.com/create-desktop-shortcut-launcher-linux.html)的方式,使用下面的命令为你的 Firefox 浏览器设定最大下载速率(例如, 300 KB/s)。 ``` trickle -d 300 firefox %u ``` 最后, trickle 也可以以守护进程模式运行,在该模式下,它将会限制所有通过 trickle 启动且正在运行的程序的总带宽之和。 启动 trickle 使其作为一个守护进程(例如, trickled): ``` $ sudo trickled -d 1000 ``` 一旦 trickled 守护进程在后台运行,你便可以通过 trickle 命令来启动其他程序。假如你通过 trickle 启动一个程序,那么这个程序的最大下载速率将是 1000 KB/s, 假如你再通过 trickle 启动了另一个程序,则每个程序的(下载)速率极限将会被限制为 500 KB/s,等等。 ### 在 Linux 中限制一个网络接口的速率 另一种控制你的带宽资源的方式是在每一个接口上限制带宽。这在你与其他人分享你的网络连接的上行带宽时尤为实用。同其他一样,Linux 有一个工具来为你做这件事。[wondershaper](http://lartc.org/wondershaper/)就是干这个的。 wondershaper 实际上是一个 shell 脚本,它使用 [tc](http://lartc.org/manpages/tc.txt) 来定义流量调整命令,使用 QoS 来处理特定的网络接口。外发流量通过放在不同优先级的队列中,达到限制传出流量速率的目的;而传入流量通过丢包的方式来达到速率限制的目的。 事实上, wondershaper 的既定目标不仅仅是对一个接口增加其带宽上限;当批量下载或上传正在进行时,wondershaper 还试图去保持互动性会话如 SSH 的低延迟。同样的,它还会控制批量上传(例如, Dropbox 的同步)不会使得下载“窒息”,反之亦然。 在 Ubuntu Debian 及其衍生发行版中安装 wondershaper: ``` $ sudo apt-get install wondershaper ``` 在 Fdora 或 CentOS/RHEL (带有 [EPEL 软件仓库](http://linux.cn/article-2324-1.html)) 中安装 wondershaper: ``` $ sudo yum install wondershaper ``` wondershaper 的基本使用如下: ``` $ sudo wondershaper <interface> <download-rate> <upload-rate> ``` 举个例子, 将 `eth0` 的最大下载/上传带宽分别设定为 1000Kbit/s 和 500Kbit/s: ``` $ sudo wondershaper eth0 1000 500 ``` 你也可以通过运行下面的命令将速率限制进行消除: ``` $ sudo wondershaper clear eth0 ``` 假如你对 wondershaper 的运行原理感兴趣,你可以阅读其 shell 脚本源文件(/sbin/wondershaper)。 ### 总结 在本教程中,我介绍了两种不同的方法,来达到如何在 Linux 桌面环境中,控制每个应用或每个接口的带宽使用的目的。 这些工具的使用都很简单,都为用户提供了一个快速且容易的方式来调整或限制流量。 对于那些想更多地了解如何在 Linux 中进行速率控制的读者,请参考 [the Linux bible](http://www.lartc.org/lartc.html). --- via: <http://xmodulo.com/limit-network-bandwidth-linux.html> 作者:[Dan Nanni](http://xmodulo.com/author/nanni) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,130
如何让Ubuntu服务器远离鬼影漏洞(GHOST)影响
http://www.ubuntugeek.com/how-to-protect-ubuntu-server-against-the-ghost-vulnerability.html
2015-03-27T08:05:00
[ "GHOST", "安全漏洞" ]
https://linux.cn/article-5130-1.html
2015年1月27日,GNU C库(glibc)的一个漏洞也称鬼影漏洞(GHOST)被公诸于众。总的来说,这个漏洞允许远程攻击者利用glibc中的GetHOST函数的缓冲区溢出漏洞来获得系统的完全控制。点击[这里](http://chargen.matasano.com/chargen/2015/1/27/vulnerability-overview-ghost-cve-2015-0235.html)获得更多细节。 鬼影漏洞可在版本在glibc-2.18之前的Linux系统上被利用。也就是说没有打过补丁的版本2.2到2.17都是有风险的。 ![](/data/attachment/album/201503/26/150802cavgbdgbdbm9eq8b.jpg) ### 检查系统漏洞 你可以使用下面的命令来检查glib的版本 ``` ldd --version ``` ### 输出 ldd (Ubuntu GLIBC 2.19-10ubuntu2) **2.19** Copyright (C) 2014 Free Software Foundation, Inc. This is free software; see the source for copying conditions. There is NO warranty; not even for MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. Written by Roland McGrath and Ulrich Drepper. glib的版本应该高于2.17,我们的输出是2.19。如果你看到glib的版本在2.2到2.17之间。你应该运行下面的命令。 ``` sudo apt-get update sudo apt-get dist-upgrade ``` 安装完之后,你应该用下面的命令重启系统。 ``` sudo reboot ``` 重启完成之后,你可以用同样的命令来检查glib的版本。 --- via: <http://www.ubuntugeek.com/how-to-protect-ubuntu-server-against-the-ghost-vulnerability.html> 作者:[ruchi](http://www.ubuntugeek.com/author/ubuntufix) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
200
OK
# How To Protect Ubuntu Server Against the GHOST Vulnerability **Sponsored Link** [here](http://chargen.matasano.com/chargen/2015/1/27/vulnerability-overview-ghost-cve-2015-0235.html) The GHOST vulnerability can be exploited on Linux systems that use versions of the GNU C Library prior to glibc-2.18. That is, systems that use an unpatched version of glibc from versions 2.2 to 2.17 are at risk. **Check System Vulnerability** You can use the following command to check the glib version ldd --version **Output** ldd (Ubuntu GLIBC 2.19-10ubuntu2) **2.19** Copyright (C) 2014 Free Software Foundation, Inc. This is free software; see the source for copying conditions. There is NO warranty; not even for MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. Written by Roland McGrath and Ulrich Drepper. The glib version should be above 2.17 and from the output we are running 2.19.If you are seeing glib version between 2.2 to 2.17 then you need to run the following commands sudo apt-get update sudo apt-get dist-upgrade After the installation you need to reboot the server using the following command sudo reboot After reboot use the same command again and check the glib version.
5,131
Linux 下最为人熟知的归档/压缩工具
http://linoxide.com/tools/linux-compress-decompress-tools/
2015-03-27T09:27:00
[ "压缩", "归档", "tar", "gzip", "bzip2", "7z" ]
/article-5131-1.html
很多时候,通过互联网发送或接收大文件和图片是一件令人头疼的事。压缩及解压缩工具正好可以应对这个问题。下面让我们快速浏览一些可以使得我们的工作更加轻松的开源工具。 ### Tar ![](/data/attachment/album/201503/26/155328llggxaaxtllxrzhx.png) Tar 由 'Tape archiver(磁带归档器)' 衍生而来,最初被用来在磁带上归档和存储文件。Tar 是一个 GNU 软件,它可以压缩一组文件(归档),或提取它们以及对已有的归档文件进行相关操作。在存储、备份以及传输文件方面,它是很有用的。在创建归档文件时,Tar 可以保持原有文件和目录结构不变。通过 Tar 归档的文件的后缀名为 ‘.tar’。 **基本用法如下:** #### a) 创建归档 (c / --create) ``` tar --create --verbose --file=archive.tar file1 file2 file3 ``` 或 ``` tar cvf archive.tar file1 file2 file3 ``` ![tar cvf](/data/attachment/album/201503/26/155332fq00a601bqpb00yl.png) *创建一个归档* #### b) 列出归档文件内容 ( t / --list) ``` tar --list archive.tar ``` ![tar tvf](/data/attachment/album/201503/26/155333gtcjtjkhhustzwm0.png) *列出归档中包含的文件* #### c) 提取归档 (x / --extract) ``` tar xvf archive.tar tar xvf archive.tar --wildcards '*.c' - 从归档中提取后缀名为 *.c 的文件。 ``` ![tar xvf](/data/attachment/album/201503/26/155334j1p7s41e6s1z1ktg.png) *提取文件* ![tar xvf --wildcards](/data/attachment/album/201503/26/155335v8bz6zvdiraa7rra.png) *只提取需要的文件* #### d) 对归档文件进行更新 ( u / --update) ``` tar uvf archive.tar newfile.c - 假如归档的newfile.c 要比先前已经归档的新,则添加更新的 newfile.c 到归档里面. ``` ![tar uvf](/data/attachment/album/201503/26/155337a0nxlxxbssobjzdr.png) *更新一个归档* #### e) 从归档中删除文件 (--delete) ``` tar --delete -f archive.tar file1.c - 从压缩包'archive.tar' 中删除文件'file1.c' ``` ![tar --delete](/data/attachment/album/201503/26/155338ph34ol4baaazqvpn.png) *删除文件* 更加具体的使用方法请参考[tar 主页](http://www.gnu.org/software/tar/)。 ### Gzip / Gunzip ![](/data/attachment/album/201503/26/155343r6le6osz6eglmvze.png) Gzip 即 GNU zip,它是一个被广泛用于 Linux 操作系统中的压缩应用,被其压缩的文件的后缀名为'\*.gz' 。 **基本用法如下:** #### a) 压缩文件 ``` gzip file(s) ``` 每个文件将被**单独压缩**。 ![gzip](/data/attachment/album/201503/26/155343ckwgs2kcgsiciks2.png) *压缩文件* 通常在压缩完成后,它会将原来的文件删除。我们可以使用 `-c` 选项来保留原来的文件。 ``` gzip -c file > file.gz ``` ![gzip-c](/data/attachment/album/201503/26/155344a1t1bll1r6ll1761.png) *压缩后保留原有文件* 我们也可以将一组文件压缩到一个单独的文件中 ``` cat file1 file2 file3 | gzip > archieve.gz ``` ![gz group](/data/attachment/album/201503/26/155345b92712nzi1rga299.png) *压缩一组文件* #### b) 检查压缩比 被压缩文件的压缩比可以使用 ‘-l’ 选项来进行检验。 ``` gzip -l archieve.gz ``` ![gzip -l](/data/attachment/album/201503/26/155346sjtsguj6tb4cebj8.png) *检查压缩率* #### c) 解压文件 Gunzip 用来解压文件,在这里,原有的(压缩)文件在被解压后同样会被删除。使用 `-c`选项来保留原始文件。 ``` gunzip -c archieve.gz ``` ![gunzip -c](/data/attachment/album/201503/26/155347r6gcqa4yeaocavgj.png) *解压文件* gzip 加上'-d'选项 和 gunzip 对压缩文件有同样的效果。 更多细节可以从 [gzip 主页](http://www.gzip.org/) 得到。 ### Bzip2 / Bunzip2 ![](/data/attachment/album/201503/26/155347ivkih4zijh99k0la.png) 同 gzip 一样,[Bzip2](http://www.bzip.org/) 也是一个压缩工具,与其他传统的工具相比,它可以将文件压缩到更小,但其缺点为:运行速度比 gzip 慢。 **基本用法如下:** #### a) 压缩文件 一般情况下,针对压缩而言,Bzip2 不用什么选项,将被压缩的文件被传递为它的参数。每个文件被单独压缩,且压缩文件以 'bz2' 为后缀名。 ``` bzip2 file1 file2 file3 ``` ![bzip2](/data/attachment/album/201503/26/155348zkgt66ztg74hj6gh.png) *文件压缩* 使用 '-k' 选项可以使得在压缩或解压缩之后保留原有的文件。 ![bzip2 -k](/data/attachment/album/201503/26/155349t7p3qhz0pzrrgep1.png) *在压缩后保留原有文件* #### b) 解压 '-d' 选项被用来解压缩。 ![bzip2 -d](/data/attachment/album/201503/26/155349ge4aoz4cse77des8.png) *使用 -d 选项解压缩文件* 也可以使用 bunzip2 来解压缩。 ``` bunzip2 filename ``` ![bunzip2](/data/attachment/album/201503/26/155350nt9sguuy1hy9osfy.png) *解压文件* bunzip2 可以解压后缀名为 bz2, bz, tbz2 和 tbz 的文件。带有 tbz2 和 tbz 的文件在压缩后,后缀名将变为'.tar' 。 ``` bzip2 -dc - 执行解压文件到标准输出的功能。 ``` ### 7-zip ![](/data/attachment/album/201503/26/155351hh7ic04vf323icvi.png) [7-zip](http://www.7-zip.org/) 是另一个开源压缩软件。它使用 7z 这种新的压缩格式,并支持高压缩比。因此,它被认为是比先前提及的压缩工具更好的软件。在 Linux 下,可以通过 p7zip 软件包得到,该软件包里包含 3 个二进制文件: 7z, 7za 和 7zr,读者可以参考 [p7zip wiki](https://wiki.archlinux.org/index.php/p7zip) 来了解这三个二进制文件之间的不同。在本篇中,我们将使用 7zr 来解释 7-zip 的用法。归档文件以 '.7z' 为后缀名。 **基本用法如下:** #### a) 创建归档 ``` 7zr a archive-name.7z file-name(s) / directory-name(s) ``` ![7zr a](/data/attachment/album/201503/26/155352hdguhaheeu47pef4.png) *创建一个归档文件* #### b) 列出归档包含文件 ``` 7zr l archive-name.7z ``` ![7zr l](/data/attachment/album/201503/26/155353bvyrpg12c6jgb7j5.png) *列出归档中包含的文件* #### c) 提取归档文件 ``` 7zr e archive-name.7z ``` ![7zr e](/data/attachment/album/201503/26/155354xegkfugcb4yre4ge.png) *提取归档* #### d) 更新归档文件 ``` 7zr u archive-name.7z new-file ``` ![7zr u](/data/attachment/album/201503/26/155356td1viigihg9ijddi.png) *更新一个归档文件* #### e) 从归档文件中删除文件 ``` 7zr d archive-name.7z file-to-be-deleted ``` ![7zr d](/data/attachment/album/201503/26/155356tysrcjsu0zsraxjj.png) *删除文件* ![7zr l](/data/attachment/album/201503/26/155358lck57zchhkbe5595.png) *确认文件删除* --- via: <http://linoxide.com/tools/linux-compress-decompress-tools/> 作者:[B N Poornima](http://linoxide.com/author/bnpoornima/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /tools/linux-compress-decompress-tools/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c43a0>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,138
4 个图形界面的 CD 音频抓取器
http://www.linuxlinks.com/article/20150125043738417/AudioGrabbersGraphical.html
2015-03-28T08:27:00
[ "CD", "音频" ]
https://linux.cn/article-5138-1.html
CD音频抓取器设计用来从光盘中提取(“RIP”)原始数字音频(通常被称为 CDDA 格式)并把它保存成文件或以其他形式输出。这类软件使用户能把数字音频编码成各种格式,并可以从在线光盘数据库 freedb 中下载或上传光盘信息。 复制CD合法吗?在美国版权法中,把一个原始CD转换成数字文件用于个人使用等同于‘合理使用’。然而,美国版权法并没有明确的允许或禁止拷贝私人音频CD,而且判例法还没有确立出在具体的哪种情况下可以视为合理使用。而在英国,其版权的定位则更清晰一些。从2014年开始,英国公民制造CD,MP3,DVD,蓝光和电子书的行为成为合法行为。当然,这仅适用于这个人拥有被采集的媒体的实体,并且复制品仅用于他们个人使用。对于欧盟的其他国家,成员国也允许私人复制这种特例。 如果你不确定在你生活的国家里这种版权是如何界定的,在你使用这篇文章中所列举的软件前请查询本地的版权法以确定你处在合法的一边。 在某种程度上,提取CD音轨看起来有点多余。如[Spotify](http://linux.cn/article-3130-1.html)和Google Play Music这类流媒体服务提供了一个巨大的以通用格式的音乐的库,无需采集你的CD集。但是,如果你已将收藏了一个数量巨大的CD集。能把你的CD转换成可以在便携设备如智能手机、平板和便携式MP3播放器上播放的格式仍然是个诱人的选择。 这篇文章推荐了我最喜欢的音频CD抓取器。我挑了四个最好的图形界面的音频抓取器。所有这些应用程序都是在开源许可下发行的。 ### fre:ac ![](/data/attachment/album/201503/27/213105fz4hkph1tt48m4rc.png) fre:ac是个开源的音频转换器和CD提取器,支持很多种流行格式和编码器。目前这个应用可以在MA3、MP4/M4A、WMA、Ogg Vorbis、FLAC、AAC、WAV和Bonk格式间转换。这来源于几种不同形式的LAME编码器。 #### 功能包括: * 易学易用 * MP3、MP4/M4A、WMA、Ogg Vorbis、FLAC、AAC、WAV和Bonk格式转换器 * 集成了CDDB/freedb标题数据库支持的CD提取器 * 多核优化的编码器加速了现代PC上的转换速度 * 对于标签和文件名称的全Unicode支持 * 易学易用,而当你需要时还提供专家级选项 * 任务列表 * 可以使用Winamp 2输入插件 * 多语言用户界面支持41种语言 * 网址: [freac.org](http://www.freac.org/) * 开发人员:Robert Kausch * 许可证: GNU GPL v2 * 版本号: 20141005 ### Audex ![](/data/attachment/album/201503/27/213123qwkqt65ze554wo04.png) Audex是个简单易用的开源的音频CD提取应用。虽然它还处于早期开发阶段,但这个KDE桌面工具足够稳定、智能和简单易用。 它的助手可以为LAME、OGG Vorbis(oggenc)、FLAC、FAAC(AAC/MP4)和RIFF WAVE等格式创建配置文件。除了这个助手,你也可以定义你自己的配置文件,这意味着,Audex适用于大部分的命令行编码器。 #### 功能包括: * 可提取CDDA Paranoia * 提取和编码同时进行 * 文件名采用本地和远程的CDDB/FreeDB数据库 * 可以提交到CDDB/FreeDB数据库 * 类似capitalize的元数据纠正工具 * 多配置文件提取(每个配置文件文件有一个命令行编码器) * 从互联网上抓取封面并将他们存在数据库中 * 在目标目录中创建播放列表、封面和基于模板的信息文件 * 创建提取和编码协议 * 将文件传送到FTP服务器 * 支持国际化 * 网址: [kde.maniatek.com/audex](http://kde.maniatek.com/audex/) * 开发人员: Marco Nelles * 许可证: GNU GPL v3 * 版本号: 0.79 ### Sound Juicer ![](/data/attachment/album/201503/27/213136ecdivivopttgtecz.png) Sound Juicer是个使用GTK+和GStreamer开发的轻量级CD提取器。它从CD中提取音频并把它转换成音频文件。Sound Juicer还可以直接播放CD中的音轨,在提取前提供预览。 它支持任何GStreamer插件所支持的音频编码,包括 MP3、Ogg Vorbis、FLAC和未压缩的PCM格式。 它是GNOME桌面环境内建的一部分。 #### 功能包括: * 自动通过CDDB给音轨加标签 * 可编码成ogg/vorbis、FLAC和原始WAV * 编码路径的设置很简单 * 多种风格流派 * 国际化支持 * 网址:[burtonini.com](http://burtonini.com/blog/computers/sound-juicer) * 开发人员: Ross Burton * 许可证:GNU GPL v2 * 版本号:3.14 ### ripperX ![](/data/attachment/album/201503/27/213146rcu0chruor2uozr3.png) ripperX是个开源的图形界面的程序,用于提取CD音轨并把他们编码成Ogg、MP2、MP3或FLAC格式。它的目的是容易使用,只需要点几下鼠标就能转换整张专辑。它支持在CDDB寻找专辑和音轨信息。 他使用cdparanoia把CD音轨转换(也就是“提取”)成WAV文件,然后调用Vorbis/Ogg编码器oggenc把WAV文件转换成OGG文件。它还可以调用flac让WAV文件生成无损压缩的FLAC文件。 #### 功能包括: * 非常简单易用 * 可以把CD音轨提取成WAV、MP3、OGG或FLAC文件 * 支持CDDB查找 * 支持ID3v2标签 * 可暂停提取进程 * 网址:[sourceforge.net/projects/ripperx](http://sourceforge.net/projects/ripperx/) * 开发人员:Marc André Tanner * 许可证:MIT/X Consortium License * 版本号:2.8.0 --- 转自:<http://www.linuxlinks.com/article/20150125043738417/AudioGrabbersGraphical.html> 作者:Frazer Kline 译者:[H-mudcup](https://github.com/H-mudcup) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,140
如何通过简单的3步恢复Windows 7同时删除Ubuntu
http://www.everydaylinuxuser.com/2015/01/how-to-recover-windows-7-and-delete.html
2015-03-29T10:02:00
[ "双引导", "Windows", "Ubuntu" ]
https://linux.cn/article-5140-1.html
### 说明 写这篇文章对我来说是一件奇怪的事情,因为我通常都是提倡安装Ubuntu而卸载Windows的。 让今天写这篇文章更加奇怪的是,我决定在微软决定终止对Windows7的主流支持的这一天来写。 那么为什么我现在要写这篇文章呢? 到目前为止我曾经在很多场合被问到如何从一个装有Windows7或Windows8的双系统中删除Ubuntu系统,因此写这篇文章就变得有意义了。 我在圣诞节期间浏览了人们在我文章中的留言,感觉是时候把缺失的文章写完同时更新一下那些比较老的又需要关注的文章了。 我打算把一月份剩下的时间都用在这上面。这是第一步。如果你的电脑上安装了Windows7和Ubuntu双系统,同时你不想通过恢复出厂设置的方式恢复Windows7系统,那么请参考该教程。(注意:对于Windows8系统,有一个独立的教程) ### 删除Ubuntu系统需要的步骤 1. 通过修复Windows启动项来删除Grub 2. 删除Ubuntu系统所在分区 3. 扩展Windows系统分区 ### 备份系统 在你开始之前,我建议为你的系统保留一个备份。 我建议你不要放弃备份的机会,但也不要使用微软自带的工具。 [点击查看如何使用Macrinum Reflect备份你的驱动](http://linux.about.com/od/LinuxNewbieDesktopGuide/ss/Create-A-Recovery-Drive-For-All-Versions-Of-Windows.htm) 如果Ubuntu中有你希望保存的数据,现在就登录进去然后将数据保存到外部硬盘驱动器,USB驱动器或者DVD中。 ### 步骤1 - 删除Grub启动菜单 ![](/data/attachment/album/201503/27/220313nuchiyp1pc1im1hu.jpg) 当你启动系统的时候你会看见一个与上图类似的菜单。 要想删除这个菜单直接进入Windows系统,你必须修复主引导记录。 要达到这个目的,我将向你展示如何创建一个系统恢复盘,如何从恢复盘中启动以及如何修复主引导记录。 ![](/data/attachment/album/201503/27/220336nbnfensbyw9yynzh.png) 按下“开始”按钮,搜索“备份和还原”。点击出现的图标。 将会打开一个与上图一样的窗口。 点击“创建系统修复光盘”。 你需要一个[空的DVD盘](http://www.amazon.co.uk/gp/product/B0006L2HTK/ref=as_li_qf_sp_asin_il_tl?ie=UTF8&camp=1634&creative=6738&creativeASIN=B0006L2HTK&linkCode=as2&tag=evelinuse-21&linkId=3R363EA63XB4Z3IL)。 ![](/data/attachment/album/201503/27/220453ciig9yafp9o1aima.png) 将空的DVD盘插入到驱动器中然后从下拉列表中选择你的DVD驱动器。 点击“创建光盘”。 将光盘留在电脑中并重启电脑,当出现从CD中启动的消息的时候按下键盘上的“回车”键。 ![](/data/attachment/album/201503/27/220516cukd89qtab9dbja9.jpg) 屏幕上会出现“系统恢复选项”。 它会要求你选择你的键盘布局方式。 从列表中选择合适的选项,然后点击“下一步”。 ![](/data/attachment/album/201503/27/220616bj7jiohovq20kljh.jpg) 下一个界面让你选择你想修复的操作系统。 或者你可以使用早先保存的系统镜像恢复系统。 选中上面的选项然后点击“下一步”。 ![](/data/attachment/album/201503/27/220648bgtn2m82y8wbxyrz.jpg) 现在你将会看到一个有修复硬盘和恢复您的系统等选项的界面。 你需要做的是修复主引导记录,而这可以通过领命提示符来完成。 点击“命令提示符”。 ![](/data/attachment/album/201503/27/220714eb76tgjx29rjgjbw.jpg) 现在只需要把下面的命令输入到命令提示符中: ``` bootrec.exe /fixmbr ``` 接下来将会出现一条消息,提示操作已经成功完成。 你现在就可以关闭命令提示符窗口了。 点击“重启”按钮然后取出DVD。 你的电脑就会直接启动进入Windows7系统了。 ### 步骤 2 - 删除Ubuntu分区 ![](/data/attachment/album/201503/27/220737u9utkku459daew4w.png) 要删除Ubuntu你需要使用Windows系统提供的“磁盘管理”工具。 按下“开始”按钮然后在搜索框中输入“创建和格式化磁盘分区”。将会出现一个与上图类似的窗口。 现在上面我的屏幕将不再和你的一模一样了,不过也不会相差太多。你会看到第0块磁盘有101MB的未分配空间,另外还有4个分区。 这101MB的空间是之前我安装Windows7时犯的一个错误。驱动器C是Windows7系统,下一个分区(46.57GB)是Ubuntu的根分区。287G的分区是/HOME分区,8G的分区是交换空间。 对于Windows系统来说,我们真正需要的只有驱动器C,所以剩下的是可以删掉的。 **注意: 注意一下.你的磁盘上可能有恢复分区。 不要删除恢复分区。它们应该有专门的卷标,文件系统也许是NTFS或FAT32** ![](/data/attachment/album/201503/27/220807j337lt30ios735ot.png) 在你希望删除的分区上单击右键(例如:root,home和swap分区),然后从弹出的菜单中点击“删除卷”。 **(不要删除任何NTFS或者FAT32文件系统的分区!)** 对于剩下的两个分区重复执行上面的操作。 ![](/data/attachment/album/201503/27/220834kulv03zsq6q0ml6e.png) 分区被删除后你将会有很大的一片空闲区域。右键点击空闲区域然后选择删除。 ![](/data/attachment/album/201503/27/220845p70cz7v4q0f7sju9.png) 现在你的磁盘将包含驱动器C和一大片没有分配的空间。 ### 步骤 3 - 扩展Windows分区 ![](/data/attachment/album/201503/27/220908p5cpc695yppki9r8.png) 最后一步是扩展Windows以便于将它再变成一个大的分区。 右键点击Windows分区(C盘),然后选择“扩展卷”。 ![](/data/attachment/album/201503/27/220938mk4ddl0nui4u8ffx.png) 当出现左面的窗口的时候点击“下一步”。 ![](/data/attachment/album/201503/27/220951utig8akoeaye6o1o.png) 接下来是一个向导界面,在这里你可以选择扩展到那个盘,同时修改扩展的大小。 默认情况下,向导界面将显示它能从未分配区域中获取的最大的磁盘空间数。 接受默认的选项,然后点击“下一步”。 ![](/data/attachment/album/201503/27/221011sszcubppzxggjws6.png) 最后的界面展示了你在前一个界面中的选择结果。 点击“结束”进行磁盘扩展。 ![](/data/attachment/album/201503/27/221119nzez7u47p764fx6z.png) 从上图中你可以看到,我的Windows分区占据了整个磁盘(除了我之前安装Windows的时候偶然创建的101MB的空间)。 ### 总结 ![](/data/attachment/album/201503/27/221154bj4iw4ppmop9qex1.png) 这就是全部内容。一个致力于Linux的网站刚刚向你展示了如何移除Linux然后用Windows7取而代之。 有任何疑问可以在下面评论区留言。 --- via: <http://www.everydaylinuxuser.com/2015/01/how-to-recover-windows-7-and-delete.html> 作者:Gary Newell 译者:[Medusar](https://github.com/Medusar) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,145
一款在Gnome桌面中显示Andorid通知的程序
http://www.omgubuntu.co.uk/2015/03/new-app-brings-android-notifications-to-the-gnome-desktop
2015-03-29T20:03:02
[ "Gnome", "Andorid", "Nuntius" ]
https://linux.cn/article-5145-1.html
**你很快就可以在GNOME桌面中看到Andorid通知了,这都要归功于一个正在开发中的新程序。** ![Fancy seeing your Android alerts here? You can.](/data/attachment/album/201503/29/200306i88lnglnaun1i1u4.png) 在这里看到Android通知是不是很棒?就可以了~ 这个新的项目叫“Nuntius”,这可以让在Andorid手机上收到的通知显示在GNOME桌面上。它会集成在GNOME 3.16中,并且它[重新设计了通知系统](http://www.omgubuntu.co.uk/2015/02/4-reason-why-gnome-3-16-might-be-the-best-version-yet-gallery),这个app和特性会用在其他更多的地方。 这个app的开发者希望在这个月GNOME 3.16发布之前可以完成,它将通过蓝牙工作来保证不会传给外部的系统或者使用在线存储。这意味着你的电话必须接近GNOME桌面来保证这个功能可用。 他现在还不能回复短消息或者对提醒采取操作。 开发团队警告说**这是一个早期发布版本**,那些打算期望很高人要有暂时只能提供部分功能的心理准备。 这个用来配合在GNOME桌面上看Android通知的移动端app现在已经在[Google Play商店](https://play.google.com/store/apps/details?id=org.holylobster.nuntius)找到了,而GNOME程序已经放在Fedora的仓库中了。 开发者已经在Gituhb上开源了Android和GNOME接收端的程序。 在一两年前,[KDE桌面上已经有了](http://www.omgubuntu.co.uk/2014/06/kde-connect-android-notifications-linux-desktop)一个相似的工具 - ‘KDE Connect,它通过Pushbullet来为使用Chrome的iOS和Android提供相似的功能,支持Windows、MAC和Linux桌面。 * [Nuntius for Android & GNOME on GitHub](https://github.com/holylobster) --- via: <http://www.omgubuntu.co.uk/2015/03/new-app-brings-android-notifications-to-the-gnome-desktop> 作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,146
如何在Linux上找出并删除重复的文件:FSlint
http://linoxide.com/file-system/find-remove-duplicate-files-linux/
2015-03-30T07:10:00
[ "重复文件", "FSlint" ]
/article-5146-1.html
大家好,今天我们会学习如何在Linux PC或者服务器上找出和删除重复文件。这里有一款工具你可以工具自己的需要使用。 无论你是否正在使用Linux桌面或者服务器,有一些很好的工具能够帮你扫描系统中的重复文件并删除它们来释放空间。图形界面和命令行界面的都有。重复文件是磁盘空间不必要的浪费。毕竟,如果你的确需要在不同的位置享有同一个文件,你可以使用软链接或者硬链接,这样就可以在磁盘的一个地方存储数据了。 ### FSlint [FSlint](http://www.pixelbeat.org/fslint/) 在不同的Linux发行版二进制仓库中都有,包括Ubuntu、Debian、Fedora和Red Hat。只需你运行你的包管理器并安装“fslint”包就行。这个工具默认提供了一个简单的图形化界面,同样也有包含各种功能的命令行版本。 不要担心FSlint的图形化界面太复杂。默认情况下,它会自动选中Duplicate窗格,并以你的家目录作为搜索路径。 要安装fslint,若像我这样运行的是Ubuntu,这里是默认的命令: ``` $ sudo apt-get install fslint ``` 这里还有针对其他发行版的安装命令: Debian: ``` svn checkout http://fslint.googlecode.com/svn/trunk/ fslint-2.45 cd fslint-2.45 dpkg-buildpackage -I.svn -rfakeroot -tc sudo dpkg -i ../fslint_2.45-1_all.deb ``` Fedora: ``` sudo yum install fslint ``` OpenSUSE: ``` [ -f /etc/mandrake-release ] && pkg=rpm [ -f /etc/SuSE-release ] && pkg=packages wget http://www.pixelbeat.org/fslint/fslint-2.42.tar.gz sudo rpmbuild -ta fslint-2.42.tar.gz sudo rpm -Uvh /usr/src/$pkg/RPMS/noarch/fslint-2.42-1.*.noarch.rpm ``` 对于其他发行版: ``` wget http://www.pixelbeat.org/fslint/fslint-2.44.tar.gz tar -xzf fslint-2.44.tar.gz cd fslint-2.44 (cd po && make) ./fslint-gui ``` 要在Ubuntu中运行fslint的GUI版本fslint-gui, 使用Alt+F2运行命令或者在终端输入: ``` $ fslint-gui ``` 默认情况下,它会自动选中Duplicate窗格,并以你的家目录作为搜索路径。你要做的就是点击Find按钮,FSlint会自动在你的家目录下找出重复文件列表。 ![Delete Duplicate files with Fslint](/data/attachment/album/201503/29/201315q2phszph3ip2spsz.png) 点击按钮来删除任何你要删除的文件,并且可以双击预览。 完成这一切后,我们就成功地删除你系统中的重复文件了。 **注意** ,命令行工具默认不在环境的路径中,你不能像典型的命令那样运行它。在Ubuntu中,你可以在/usr/share/fslint/fslint下找到它。因此,如果你要在一个单独的目录运行fslint完整扫描,下面是Ubuntu中的运行命令: ``` cd /usr/share/fslint/fslint ./fslint /path/to/directory ``` **这个命令实际上并不会删除任何文件。它只会打印出重复文件的列表-你需要自己做接下来的事。** ``` $ /usr/share/fslint/fslint/findup --help find dUPlicate files. Usage: findup [[[-t [-m|-d]] | [--summary]] [-r] [-f] paths(s) ...] If no path(s) specified then the current directory is assumed. When -m is specified any found duplicates will be merged (using hardlinks). When -d is specified any found duplicates will be deleted (leaving just 1). When -t is specfied, only report what -m or -d would do. When --summary is specified change output format to include file sizes. You can also pipe this summary format to /usr/share/fslint/fslint/fstool/dupwaste to get a total of the wastage due to duplicates. ``` ![fslint help](/data/attachment/album/201503/29/201317rhoizhd4zozqam80.png) --- via: <http://linoxide.com/file-system/find-remove-duplicate-files-linux/> 作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /file-system/find-remove-duplicate-files-linux/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c47c0>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,147
如何在树莓派上使用图片特效
http://xmodulo.com/apply-image-effects-pictures-raspberrypi.html
2015-03-30T08:20:00
[ "树莓派", "图片" ]
https://linux.cn/article-5147-1.html
现在使用[树莓派摄像头模组](http://xmodulo.com/go/picam)("raspi cam"),也可以像使用卡片相机那样,给拍摄的照片增加各种各样的图片特效。 raspistill命令行工具,为您的树莓派提供了丰富的图片特效选项,来美化处理你的图片。 有[三个命令行工具](http://www.raspberrypi.org/documentation/usage/camera/raspicam/)可以用于[抓取raspicam拍摄的照片或者视频](http://xmodulo.com/install-raspberry-pi-camera-board.html),在这文章中将重点介绍其中的raspstill工具。raspstill工具提供了丰富的控制选项来处理图片,比如说:锐度(sharpness)、对比度(contrast)、亮度(brightness)、饱和度(saturation)、ISO、自动白平衡(AWB)、以及图片特效(image effect)等。 在这篇文章中,将介绍如何使用raspstill工具以及raspicam摄像头模组来控制照片的曝光、AWB以及其他的图片效果。我写了一个简单的python脚本来自动拍摄照片并在这些照片上自动应用各种图片特效。raspicam的帮助文档中介绍了该摄像头模组所支持的曝光模式、AWB和图片特效。总的来说,raspicam一共支持16种图片特效、12种曝光模式以及10种AWB选项。 Python脚本很简单,如下所示 。 ``` #!/usb/bin/python import os import time import subprocess list_ex=['auto','night'] list_awb=['auto','cloud',flash'] list_ifx=['blur','cartoon','colourswap','emboss','film','gpen','hatch','negative','oilpaint','posterise','sketch','solarise','watercolour'] x=0 for ex in list_ex: for awb in list_awb: for ifx in list_ifx: x=x+1 filename='img_'+ex+'_'+awb+'_'+ifx+'.jpg' cmd='raspistill -o '+filename+' -n -t 1000 -ex '+ex+' -awb '+awb+' -ifx '+ifx+' -w 640 -h 480' pid=subprocess.call(cmd,shell=True) print "["+str(x)+"]-"+ex+"_"+awb+"_"+ifx+".jpg" time.sleep(0.25) print "End of image capture" ``` 这个脚本完成了以下几个工作。首先,脚本中定义了3个列表,分别用于枚举曝光模式、AWB模式以及图片特效。在这个实例中,我们将使用到2种曝光模式、3种AWB模式以及13种图片特效。脚本会遍历上述3种选项的各种组合,并使用这些参数组合来运行raspistill工具。传入的参数共6个,分别为:(1)输出文件名;(2)曝光模式;(3)AWB模式;(4)图片特效模式;(5)拍照时间,设为1秒;(6)图片尺寸,设为640x480。脚本会自动拍摄78张照片,每张照片会应用不同的特效参数。 执行这个脚本也很简单,只需键入下面的命令行: ``` $ python name_of_this_script.py ``` 下面是抓取到一些样张。 ![](/data/attachment/album/201503/29/202201qp8hiccspisi98ht.jpg) ### 小福利 除了使用raspistill命令行工具来操控raspicam摄像模组以外,还有其他的方法可以用哦。[Picamera](https://pypi.python.org/pypi/picamera)是一个python库,它提供了操控raspicam摄像模组的的API接口,这样就可以便捷地构建更加复杂的应用程序。如果你精通python,那么picamera一定是你的 hack 项目的好伙伴。picamera已经被默认集成到Raspbian最新版本的的镜像中。当然,如果你用的不是最新的Raspbian或者是使用其他的操作系统版本,你可以通过下面的方法来进行手动安装。 首先,先在你的系统上安装pip,详见[指导](http://ask.xmodulo.com/install-pip-linux.html)。 然后,就可以按下面的方法安装picamera。 ``` $ sudo pip install picamera ``` picamera的使用说明可以查阅[官方文档](http://picamera.readthedocs.org/)。 --- via: <http://xmodulo.com/apply-image-effects-pictures-raspberrypi.html> 作者:[Kristophorus Hadiono](http://xmodulo.com/author/kristophorus) 译者:[coloka](https://github.com/coloka) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,148
使用“最近通知工具”保持桌面通知历史
http://itsfoss.com/notifications-appindicator/
2015-03-30T10:27:00
[ "通知", "桌面" ]
https://linux.cn/article-5148-1.html
![How to see recent notifications in Ubuntu 14.04](/data/attachment/album/201503/29/202845vrwysr1uz135yzn1.jpg) 大多数桌面环境像Unity和Gnome都有通知特性。我很喜欢其中一些。它尤其当我[在Ubuntu上收听流媒体](http://itsfoss.com/apps-internet-streaming-radio-ubuntu/)时帮到我。默认上通知会在桌面的顶部显示几秒接着就会消失。如果你听见了通知的声音但是没有看到内容怎么办?你该如何知道通知的内容? 如果你可以看到最近所有通知的历史会很棒吧?是的,我知道这很棒。你可以在Ubuntu Unity或者Gnome中使用最近**通知小工具**来追踪所有的最近通知。 最近通知位于顶部面板,并且记录了最近所有通知的历史。当它捕获到新的通知后,它就会变绿来表明你有未读的通知。 ![Recent notifications in Ubuntu 14.04](/data/attachment/album/201503/29/202845g60xx10io70u7yu7.jpg) 当你点击它后,你就会看到最近所有的通知。你可以选择清空所有或者删除部分。 ![Recent notifications applet indicator](/data/attachment/album/201503/29/202846ajl5n1vl47la7jj5.jpg) 不幸的是它没有配置选项。因此你不能屏蔽特定程序的通知。所有的通知都会被保存。 ### 在Ubuntu 14.04 和 14.10 中安装最近通知工具 一般说来这个最近通知工具应该也可以在Linux Mint Cinnamon版本中运行。你可以试一试。使用下面的命令来在在Ubuntu 14.04 和 14.10 中安装最近通知工具: ``` sudo add-apt-repository ppa:jconti/recent-notifications sudo apt-get update sudo apt-get install indicator-notifications ``` 安装完成后,重新登录后你就可以用了。现在妈妈再也不用担心我的通知没看到了。很方便的小工具,不是么? --- via: <http://itsfoss.com/notifications-appindicator/> 作者:[Abhishek](http://itsfoss.com/author/Abhishek/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,149
Linux 有问必答:如何在Ubuntu或者Debian中编译安装ixgbe驱动
http://ask.xmodulo.com/download-install-ixgbe-driver-ubuntu-debian.html
2015-03-30T13:39:00
[ "驱动", "ixgbe", "内核" ]
/article-5149-1.html
> > **提问**: 我想为我的Intel 10G网卡下载安装最新的ixgbe驱动。我该如何在Ubuntu(或者Debian)中安装ixgbe驱动? > > > Intel的10G网卡(比如,82598、 82599、 x540)由ixgbe驱动支持。现代的Linux发行版已经带有了ixgbe驱动,通过可加载模块的方式使用。然而,有些情况你希望在你机器上的自己编译安装ixgbe驱动,比如,你想要体验ixbge驱动的最新特性时。同样,内核默认自带的ixgbe驱动中的一个问题是不允许你自定义驱动的参数。如果你想要一个完全定制的ixgbe驱动(比如 RSS、多队列、中断阈值等等),你需要手动从源码编译ixgbe驱动。 ![](/data/attachment/album/201503/29/204506bzopz2a2ocypcpcc.png) 这里是如何在Ubuntu、Debian或者它们的衍生版中下载安装ixgbe驱动的教程。 ### 第一步: 安装前提 安装之前,需要安装匹配的内核头文件和开发工具包。 ``` $ sudo apt-get install linux-headers-$(uname -r) $ sudo apt-get install gcc make ``` ### 第二步: 编译Ixgbe驱动 从[最新的ixgbe驱动](http://sourceforge.net/projects/e1000/files/ixgbe%20stable/)中下载源码。 ``` $ wget http://sourceforge.net/projects/e1000/files/ixgbe%20stable/3.23.2/ixgbe-3.23.2.tar.gz ``` 如下编译ixgbe驱动。 ``` $ tar xvfvz ixgbe-3.23.2.tar.gz $ cd ixgbe-3.23.2/src $ make ``` ### 第三步: 检查Ixgbe驱动 编译之后,你会看到在ixgbe-3.23.2/src目录下创建了**ixgbe.ko**。这就是会加载到内核之中的ixgbe驱动。 用modinfo命令检查内核模块的信息。注意你需要指定模块文件的绝对路径(比如 ./ixgbe.ko 或者 /home/xmodulo/ixgbe/ixgbe-3.23.2/src/ixgbe.ko)。输出中会显示ixgbe内核的版本。 ``` $ modinfo ./ixgbe.ko ``` --- ``` filename: /home/xmodulo/ixgbe/ixgbe-3.23.2/src/ixgbe.ko version: 3.23.2 license: GPL description: Intel(R) 10 Gigabit PCI Express Network Driver author: Intel Corporation, srcversion: 2ADA5E537923E983FA9DAE2 alias: pci:v00008086d00001560sv*sd*bc*sc*i* alias: pci:v00008086d00001558sv*sd*bc*sc*i* alias: pci:v00008086d0000154Asv*sd*bc*sc*i* alias: pci:v00008086d00001557sv*sd*bc*sc*i* alias: pci:v00008086d0000154Fsv*sd*bc*sc*i* alias: pci:v00008086d0000154Dsv*sd*bc*sc*i* alias: pci:v00008086d00001528sv*sd*bc*sc*i* alias: pci:v00008086d000010F8sv*sd*bc*sc*i* alias: pci:v00008086d0000151Csv*sd*bc*sc*i* alias: pci:v00008086d00001529sv*sd*bc*sc*i* alias: pci:v00008086d0000152Asv*sd*bc*sc*i* alias: pci:v00008086d000010F9sv*sd*bc*sc*i* alias: pci:v00008086d00001514sv*sd*bc*sc*i* alias: pci:v00008086d00001507sv*sd*bc*sc*i* alias: pci:v00008086d000010FBsv*sd*bc*sc*i* alias: pci:v00008086d00001517sv*sd*bc*sc*i* alias: pci:v00008086d000010FCsv*sd*bc*sc*i* alias: pci:v00008086d000010F7sv*sd*bc*sc*i* alias: pci:v00008086d00001508sv*sd*bc*sc*i* alias: pci:v00008086d000010DBsv*sd*bc*sc*i* alias: pci:v00008086d000010F4sv*sd*bc*sc*i* alias: pci:v00008086d000010E1sv*sd*bc*sc*i* alias: pci:v00008086d000010F1sv*sd*bc*sc*i* alias: pci:v00008086d000010ECsv*sd*bc*sc*i* alias: pci:v00008086d000010DDsv*sd*bc*sc*i* alias: pci:v00008086d0000150Bsv*sd*bc*sc*i* alias: pci:v00008086d000010C8sv*sd*bc*sc*i* alias: pci:v00008086d000010C7sv*sd*bc*sc*i* alias: pci:v00008086d000010C6sv*sd*bc*sc*i* alias: pci:v00008086d000010B6sv*sd*bc*sc*i* depends: ptp,dca vermagic: 3.11.0-19-generic SMP mod_unload modversions parm: InterruptType:Change Interrupt Mode (0=Legacy, 1=MSI, 2=MSI-X), default IntMode (deprecated) (array of int) parm: IntMode:Change Interrupt Mode (0=Legacy, 1=MSI, 2=MSI-X), default 2 (array of int) parm: MQ:Disable or enable Multiple Queues, default 1 (array of int) parm: DCA:Disable or enable Direct Cache Access, 0=disabled, 1=descriptor only, 2=descriptor and data (array of int) parm: RSS:Number of Receive-Side Scaling Descriptor Queues, default 0=number of cpus (array of int) parm: VMDQ:Number of Virtual Machine Device Queues: 0/1 = disable, 2-16 enable (default=8) (array of int) parm: max_vfs:Number of Virtual Functions: 0 = disable (default), 1-63 = enable this many VFs (array of int) parm: VEPA:VEPA Bridge Mode: 0 = VEB (default), 1 = VEPA (array of int) parm: InterruptThrottleRate:Maximum interrupts per second, per vector, (0,1,956-488281), default 1 (array of int) parm: LLIPort:Low Latency Interrupt TCP Port (0-65535) (array of int) parm: LLIPush:Low Latency Interrupt on TCP Push flag (0,1) (array of int) parm: LLISize:Low Latency Interrupt on Packet Size (0-1500) (array of int) parm: LLIEType:Low Latency Interrupt Ethernet Protocol Type (array of int) parm: LLIVLANP:Low Latency Interrupt on VLAN priority threshold (array of int) parm: FdirPballoc:Flow Director packet buffer allocation level: 1 = 8k hash filters or 2k perfect filters 2 = 16k hash filters or 4k perfect filters 3 = 32k hash filters or 8k perfect filters (array of int) parm: AtrSampleRate:Software ATR Tx packet sample rate (array of int) parm: FCoE:Disable or enable FCoE Offload, default 1 (array of int) parm: LRO:Large Receive Offload (0,1), default 1 = on (array of int) parm: allow_unsupported_sfp:Allow unsupported and untested SFP+ modules on 82599 based adapters, default 0 = Disable (array of int) ``` ### 第四步: 测试Ixgbe驱动 在测试新的模块之前,如果你内核中已存在旧版本ixgbe模块的话你需要先移除它。 ``` $ sudo rmmod ixgbe ``` 接着使用insmod命令插入新编译的ixgbe模块。确保指定一个模块的绝对路径。 ``` $ sudo insmod ./ixgbe.ko ``` 如果上面的命令成功运行,就不会显示任何的信息。 如果你需要,你可以尝试加入额外的参数。比如,设置RSS的队列数量为16: ``` $ sudo insmod ./ixgbe.ko RSS=16 ``` 检查**/var/log/kern.log**来查看ixgbe驱动是否成功激活。查看日志中的“Intel(R) 10 Gigabit PCI Express Network Driver”。ixgbe的版本信息应该和之前的modinfo的显示应该相同。 ``` Sep 18 14:48:52 spongebob kernel: [684717.906254] Intel(R) 10 Gigabit PCI Express Network Driver - version 3.22.3 ``` ![](/data/attachment/album/201503/29/204512prjh9c96c9hcrhj9.jpg) ### 第五步: 安装Ixgbe驱动 一旦你验证新的ixgbe驱动可以成功加载,最后一步是在你的系统中安装驱动。 ``` $ sudo make install ``` **ixgbe.ko** 会安装在/lib/modules//kernel/drivers/net/ethernet/intel/ixgbe 下。 从这一步起,你可以用下面的modprobe命令加载ixgbe驱动了。注意你不必再指定绝对路径。 ``` $ sudo modprobe ixgbe ``` 如果你希望在启动时加载ixgbe驱动,你可以在/etc/modules的最后加入“ixgbe”。 --- via: <http://ask.xmodulo.com/download-install-ixgbe-driver-ubuntu-debian.html> 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /download-install-ixgbe-driver-ubuntu-debian.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c4a00>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)"))
null
5,151
Shell入门:掌握Linux,OS X,Unix的Shell环境
http://www.cyberciti.biz/howto/shell-primer-configuring-your-linux-unix-osx-environment/
2015-03-31T08:05:00
[ "shell" ]
https://linux.cn/article-5151-1.html
在Linux或类Unix系统中,每个用户和进程都运行在一个特定环境中。这个环境包含了变量、设置、别名、函数以及更多的东西。下面是对Shell环境下一些常用命令的简单介绍,包括每个命令如何使用的例子,以及在命令行下设定你自己的环境来提高效率。 ![](/data/attachment/album/201503/29/221909al9hdmdo0sltclh8.jpg) ### 找出你当前的shell 在终端应用中输入下面命令中的任意一个: ``` ps $$ ps -p $$ ``` 或者 ``` echo "$0" ``` 输出范例: [![图1: Finding out your shell name](/data/attachment/album/201503/29/221934vlrrgxgwggieczrc.jpg)](http://www.cyberciti.biz/howto/shell-primer-configuring-your-linux-unix-osx-environment/attachment/finding-your-shell-like-a-pro/) *图1:找出当前的shell* ### 找出所有已安装的shell 找到已安装shell的完整路径: ``` type -a zsh type -a ksh type -a sh type -a bash ``` 输出范例: [![Fig.02: Finding out your shell path](/data/attachment/album/201503/29/221937o727t3p73ct6zw0p.jpg)](http://www.cyberciti.biz/howto/shell-primer-configuring-your-linux-unix-osx-environment/attachment/finding-and-verifying-shell-path/) *图2:找出shell的路径* 文件/etc/shells里包含了系统所支持的shell列表。每一行代表一个shell,是相对根目录的完整路径。用这个[cat命令](http://www.cyberciti.biz/faq/linux-unix-appleosx-bsd-cat-command-examples/)来查看这些数据: ``` cat /etc/shells ``` 输出范例: ``` # List of acceptable shells for chpass(1). # Ftpd will not allow users to connect who are not using # one of these shells. /bin/bash /bin/csh /bin/ksh /bin/sh /bin/tcsh /bin/zsh /usr/local/bin/fish ``` ### 临时改变当前shell 只需要输入shell的名字。在下面的例子里,我从bash切换到了zsh: ``` zsh ``` 这只是临时改变了系统shell。也叫做子shell。要从子/临时shell退出,输入下面的命令或者按下CTRL-D: ``` exit ``` ### 找出子shell的层级或临时shell的嵌套层级 每个bash实例启动后,变量$SHLVL的值都会加一。输入下面的命令: ``` echo "$SHLVL" ``` 示例输出: [![Fig. 03: Bash shell nesting level (subshell numbers)](/data/attachment/album/201503/29/221938z9aczas9ysoyua3e.jpg)](http://www.cyberciti.biz/howto/shell-primer-configuring-your-linux-unix-osx-environment/attachment/a-nested-shell-level-command/) *图3:Bash shell嵌套层级(子shell数目)* ### 通过chsh命令永久变更系统shell 想要把当前系统shell从bash永久换成zsh?试试这个: ``` chsh -s /bin/zsh ``` 想把其他用户的shell从bash永久换成ksh?试试这个: ``` sudo chsh -s /bin/ksh userNameHere ``` ### 查看当前的环境变量 你需要用到: ``` env env | more env | less env | grep 'NAME' ``` 示例输出: ``` TERM_PROGRAM=Apple_Terminal SHELL=/bin/bash TERM=xterm-256color TMPDIR=/var/folders/6x/45252d6j1lqbtyy_xt62h40c0000gn/T/ Apple_PubSub_Socket_Render=/tmp/launch-djaOJg/Render TERM_PROGRAM_VERSION=326 TERM_SESSION_ID=16F470E3-501C-498E-B315-D70E538DA825 USER=vivek SSH_AUTH_SOCK=/tmp/launch-uQGJ2h/Listeners __CF_USER_TEXT_ENCODING=0x1F5:0:0 PATH=/usr/bin:/bin:/usr/sbin:/sbin:/usr/local/bin:/opt/X11/bin:/usr/local/go/bin:/usr/local/sbin/modemZapp:/Users/vivek/google-cloud-sdk/bin __CHECKFIX1436934=1 PWD=/Users/vivek SHLVL=2 HOME=/Users/vivek LOGNAME=vivek LC_CTYPE=UTF-8 DISPLAY=/tmp/launch-6hNAhh/org.macosforge.xquartz:0 _=/usr/bin/env OLDPWD=/Users/vivek ``` 下面是bash shell里一些常见变量的列表: ![Fig.04: Common bash environment variables](/data/attachment/album/201503/29/221946wd52y52y5yxy52d2.jpg) *图4:常见bash环境变量* > > **注意**:下面这些环境变量没事不要乱改。很可能会造成不稳定的shell会话: > > > SHELL > > > UID > > > RANDOM > > > PWD > > > PPID > > > SSH*AUTH*SOCK > > > USER > > > HOME > > > LINENO > > > ### 显示环境变量的值 使用下面任意一条命令显示环境变量HOME的值: ``` ## 使用printenv ## printenv HOME ## 或者用echo ## echo "$HOME" # 考虑到可移植性,也可以用printf ## printf "%s\n" "$HOME" ``` 示例输出: ``` /home/vivek ``` ### 增加或设定一个新环境变量 下面是bash,zsh,sh和ksh的语法: ``` ## 语法 ## VAR=value FOO=bar ## 设定vim为默认文本编辑器 ## EDITOR=vim export $EDITOR ## 考虑安全性,设定默认shell连接超时时间 ## TMOUT=300 export TMOUT ## 你可以直接使用export命令设定命令的搜素路径 ## export PATH=$PATH:$HOME/bin:/usr/local/bin:/path/to/mycoolapps ``` 然后,使用printenv或者echo或printf命令查看环境变量PATH,EDITOR,和TMOUT的值: ``` printenv PATH echo "$EDITOR" printf "%s\n" $TMOUT ``` ### 怎么修改一个现有的环境变量? 下面是语法: ``` export VAR=value ## 或者 ## VAR=value export $VAR ## 把默认文本编辑器从vim改为emacs ## echo "$EDITOR" ## <--- 屏幕输出vim EDITOR=emacs ## <--- 修改 export $EDITOR ## <--- 让修改在其他会话生效 echo "$EDITOR" ## <--- 屏幕输出emacs ``` **tcsh shell下增加和修改变量**的语法是下面这样的: ``` ## 语法 setenv var value printenv var ## 设置变量foo的值为bar ## setenv foo bar echo "$foo" printenv foo ## 设置变量PATH ## setenv PATH $PATH\:$HOME/bin echo "$PATH" ## 设置变量PAGER ## setenv PAGER most printf "%s\n" $PAGER ``` ### 找出bash shell的配置文件 用下面的命令列出bash shell的文件: ``` ls -l ~/.bash* ~/.profile /etc/bash* /etc/profile ``` 示例输出: [![Fig.05: List all bash environment configuration files](/data/attachment/album/201503/29/221947gwam5wdqphm5mp1w.jpg)](http://www.cyberciti.biz/howto/shell-primer-configuring-your-linux-unix-osx-environment/attachment/list-bash-enviroment-variables/) *图5:列出bash的所有配置文件* 要查看所有的bash配置文件,输入: ``` less ~/.bash* ~/.profile /etc/bash* /etc/profile ``` 可以使用文字编辑器比如vim或emacs来一个一个编辑bash配置文件: ``` vim ~/.bashrc ``` 编辑/etc/目录下的文件,输入: ``` ## 首先是备份,以防万一 sudo cp -v /etc/bashrc /etc/bashrc.bak.22_jan_15 ######################################################################## ## 然后,随心所欲随便改吧,好好玩玩shell环境或者提高一下效率:) ## ######################################################################## sudo vim /etc/bashrc ``` ### 被Bash shell初始化过程中应用的文件搞糊涂了吗? 下面的"bash初始化文件"流程图应该有些帮助: ![](/data/attachment/album/201503/29/221949w5kouu69ocee5kvo.jpg) 根据账户设定的默认shell,你的用户配置或系统配置可能是下面其中一种: ### 找出zsh shell配置文件 zsh的[wiki](http://zshwiki.org/home/config/files)中建议用下面的命令: ``` strings =zsh | grep zshrc ``` 示例输出: ``` /etc/zshrc .zshrc ``` 输入下面的命令列出你的zsh shell文件: ``` ls -l /etc/zsh/* /etc/profile ~/.z* ``` 查看所有zsh配置文件: ``` less /etc/zsh/* /etc/profile ~/.z* ``` ### 找出ksh shell配置文件 1. 查看~/.profile或者/etc/profile文件。 ### 找出tcsh shell配置文件 1. C shell查看~/.login,~/.cshrc文件。 2. TC shell查看~/.tcshrc和~/.cshrc文件。 ### 我可以写个类似这样每次登录时都自动执行的脚本吗? 是的,把你的命令或别名或其他设定添加到~/.bashrc(bash shell)或者~/.profile(sh/ksh/bash)或者~/.login(csh/tcsh)文件中。 ### 我可以写个类似这样每次登出都自动执行的脚本吗? 是的,把你的命令或别名或其他设定添加到~/.bash\_logout(bash)或者~/.logout(csh/tcsh)文件。 ### history:获取关于shell会话的更多信息 输入history命令来查看本次会话的历史: ``` history ``` 示例输出: ``` 9 ls 10 vi advanced-cache.php 11 cd .. 12 ls 13 w 14 cd .. 15 ls 16 pwd 17 ls .... .. ... 91 hddtemp /dev/sda 92 yum install hddtemp 93 hddtemp /dev/sda 94 hddtemp /dev/sg0 95 hddtemp /dev/sg1 96 smartctl -d ata -A /dev/sda | grep -i temperature 97 smartctl -d ata -A /dev/sg1 | grep -i temperature 98 smartctl -A /dev/sg1 | grep -i temperature 99 sensors ``` 输入history 20来查看命令历史的后20条: ``` history 20 ``` 示例输出: [![Fig.06: View session history in the bash shell using history command](/data/attachment/album/201503/29/221950x3788tqafrldrclu.jpg)](http://www.cyberciti.biz/howto/shell-primer-configuring-your-linux-unix-osx-environment/attachment/history-outputs/) *图6:在bash shell中使用history命令查看会话历史* 你可以重复使用之前的命令。简单地按下[上]或[下]方向键就可以查看之前的命令。在shell提示符下按下[CTRL-R]可以向后搜索历史缓存或文件来查找命令。重复最后一次命令,只需要在shell提示符下输入!!就好了: ``` ls -l /foo/bar !! ``` 在以上的历史记录中找到命令#93 (hddtemp /dev/sda),输入: ``` !93 ``` ### 使用sudo或su改变用户 下面是语法: ``` su userName ## 登录为tom用户 ## su tom ## 为用户tom打开一个新的shell会话 ## su tom ## 登录为root用户 ## su - ## sudo命令语法(必须在系统中配置有这个命令) ## sudo -s sudo tom ``` 看看帖子"[Linux下使用其他用户身份运行命令](http://www.cyberciti.biz/open-source/command-line-hacks/linux-run-command-as-different-user/)"更多地了解sudo,su和runuser命令。 ### shell别名 别名仅仅是命令的一个快捷方式。 ### 列出所有的别名 输入下面的命令: ``` alias ``` 示例输出: ``` alias ..='cd ..' alias ...='cd ../../../' alias ....='cd ../../../../' alias .....='cd ../../../../' alias .4='cd ../../../../' alias .5='cd ../../../../..' alias bc='bc -l' alias cd..='cd ..' alias chgrp='chgrp --preserve-root' alias chmod='chmod --preserve-root' alias chown='chown --preserve-root' alias cp='cp -i' alias dnstop='dnstop -l 5 eth1' alias egrep='egrep --color=auto' alias ethtool='ethtool eth1' ``` ### 设定一个别名 bash/zsh语法: ``` alias c='clear' alias down='sudo /sbin/shutdown -h now' ``` 对于命令clear可以输入c别名,这样我们就可以输入c代替clear命令来清空屏幕: ``` c ``` 或者输入down来关闭基于Linux的服务器: ``` down ``` 你可以设定任意多的别名。看下"[Linux/Unix/Mac OS X系统中的30个方便的bash shell别名](http://www.cyberciti.biz/tips/bash-aliases-mac-centos-linux-unix.html)"了解在类Unix系统中别名的实际应用。 ### shell函数 Bash/ksh/zsh函数允许你更进一步地配置shell环境。在这个例子中,我写了一个简单的名叫memcpu()的bash函数,用来显示前10个最占用CPU和内存的进程: ``` memcpu() { echo "*** Top 10 cpu eating process ***"; ps auxf | sort -nr -k 3 | head -10; echo "*** Top 10 memory eating process ***"; ps auxf | sort -nr -k 4 | head -10; } ``` 输入memcpu就可以在屏幕上看到下面的信息: ``` memcpu *** Top 10 cpu eating process *** nginx 39559 13.0 0.2 264020 35168 ? S 04:26 0:00 \_ /usr/bin/php-cgi nginx 39545 6.6 0.1 216484 13088 ? S 04:25 0:04 \_ /usr/bin/php-cgi nginx 39471 6.2 0.6 273352 81704 ? S 04:22 0:17 \_ /usr/bin/php-cgi nginx 39544 5.7 0.1 216484 13084 ? S 04:25 0:03 \_ /usr/bin/php-cgi nginx 39540 5.5 0.1 221260 19296 ? S 04:25 0:04 \_ /usr/bin/php-cgi nginx 39542 5.4 0.1 216484 13152 ? S 04:25 0:04 \_ /usr/bin/php-cgi nixcraft 39543 5.3 0.1 216484 14096 ? S 04:25 0:04 \_ /usr/bin/php-cgi nixcraft 39538 5.2 0.1 221248 18608 ? S 04:25 0:04 \_ /usr/bin/php-cgi nixcraft 39539 5.0 0.1 216484 16272 ? S 04:25 0:04 \_ /usr/bin/php-cgi nixcraft 39541 4.8 0.1 216484 14860 ? S 04:25 0:04 \_ /usr/bin/php-cgi *** Top 10 memory eating process *** 498 63859 0.5 4.0 2429652 488084 ? Ssl 2014 177:41 memcached -d -p 11211 -u memcached -m 2048 -c 18288 -P /var/run/memcached/memcached.pid -l 10.10.29.68 -L mysql 64221 4.2 3.4 4653600 419868 ? Sl 2014 1360:40 \_ /usr/libexec/mysqld --basedir=/usr --datadir=/var/lib/mysql --user=mysql --log-error=/var/log/mysqld.log --open-files-limit=65535 --pid-file=/var/run/mysqld/mysqld.pid --socket=/var/lib/mysql/mysql.sock nixcraft 39418 0.4 1.1 295312 138624 ? S 04:17 0:02 | \_ /usr/bin/php-cgi nixcraft 39419 0.5 0.9 290284 113036 ? S 04:18 0:02 | \_ /usr/bin/php-cgi nixcraft 39464 0.7 0.8 294356 99200 ? S 04:20 0:02 | \_ /usr/bin/php-cgi nixcraft 39469 0.3 0.7 288400 91256 ? S 04:20 0:01 | \_ /usr/bin/php-cgi nixcraft 39471 6.2 0.6 273352 81704 ? S 04:22 0:17 \_ /usr/bin/php-cgi vivek 39261 2.2 0.6 253172 82812 ? S 04:05 0:28 \_ /usr/bin/php-cgi squid 9995 0.0 0.5 175152 72396 ? S 2014 27:00 \_ (squid) -f /etc/squid/squid.conf cybercit 3922 0.0 0.4 303380 56304 ? S Jan10 0:13 | \_ /usr/bin/php-cgi ``` 看下"[如何编写和应用shell函数](http://bash.cyberciti.biz/guide/Chapter_9:_Functions)"了解更多信息。 ### 综合一下:定制你自己的Linux或Unix bash shell工作环境 现在,你将使用bash shell配置自己的环境。我只介绍bash。但是理论上zsh,ksh和其他常用shell都差不多。让我们看看如何调整shell来适合我作为系统管理员的需求。编辑你的~/.bashrc文件来附加设定。下面是一些常用的配置选项。 #### #1: 设定bash路径和环境变量 ``` # 设定路径 ## export PATH=$PATH:/usr/local/bin:/home/vivek/bin:/opt/firefox/bin:/opt/oraapp/bin # 为cd命令设定路径 export CDPATH=.:$HOME:/var/www ``` 使用less或more命令作为翻页器: ``` export PAGER=less ``` 设定vim作为默认文本编辑器: ``` export EDITOR=vim export VISUAL=vim export SVN_EDITOR="$VISUAL" ``` 设定Oracle数据库特别要求的参数: ``` export ORACLE_HOME=/usr/lib/oracle/xe/app/oracle/product/10.2.0/server export ORACLE_SID=XE export NLS_LANG=$($ORACLE_HOME/bin/nls_lang.sh) ``` 设定JAVA\_HOME和其他java路径,比如java版本: ``` export JAVA_HOME=/usr/lib/jvm/java-6-sun/jre # 把ORACLE和JAVA加入到PATH里 export PATH=$PATH:$ORACLE_HOME/bin:$JAVA_HOME/bin ``` [使用密钥实现免密码登录](http://www.cyberciti.biz/faq/ssh-passwordless-login-with-keychain-for-scripts/)让ssh远程登录更安全: ``` # 再也不用输密码了 /usr/bin/keychain $HOME/.ssh/id_rsa source $HOME/.keychain/$HOSTNAME-sh ``` 最后,[打开bash命令补齐](http://www.cyberciti.biz/faq/fedora-redhat-scientific-linuxenable-bash-completion/) ``` source /etc/bash_completion ``` #### #2: 设定bash命令提示符 设定[定制的bash提示符(PS1)](http://www.cyberciti.biz/tips/howto-linux-unix-bash-shell-setup-prompt.html): ``` PS1='{\u@\h:\w }\$ ' ``` #### #3: 设定默认文件权限 ``` ## 设定默认权限为644 ## umask 022 ``` #### #4: 调整shell命令历史设定 ``` # 不往命令历史里写入相同的行 HISTCONTROL=ignoreboth # 忽略这些命令 HISTIGNORE="reboot:shutdown *:ls:pwd:exit:mount:man *:history" # 通过HISTSIZE和HISTFILESIZE设定命令历史的长度 export HISTSIZE=10000 export HISTFILESIZE=10000 # 为命令历史文件增加时间戳 export HISTTIMEFORMAT="%F %T " # 附加到命令历史文件,而不是覆盖 shopt -s histappend ``` #### #5: 设定shell会话的时区 ``` ## 为我自己的shell会话设定IST(印度标准时间) ## TZ=Asia/Kolkata ``` #### #6: 设定shell行编辑接口 ``` ## 使用vi风格的行编辑接口,替代bash默认的emacs模式 ## set -o vi ``` #### #7: 设定自己喜好的别名 ``` ## 增加一些保护 ## alias rm='rm -i' alias cp='cp -i' alias mv='mv -i' ## Memcached ## alias mcdstats='/usr/bin/memcached-tool 10.10.29.68:11211 stats' alias mcdshow='/usr/bin/memcached-tool 10.10.29.68:11211 display' alias mcdflush='echo "flush_all" | nc 10.10.29.68 11211' ## 默认命令参数 ## alias vi='vim' alias grep='grep --color=auto' alias egrep='egrep --color=auto' alias fgrep='fgrep --color=auto' alias bc='bc -l' alias wget='wget -c' alias chown='chown --preserve-root' alias chmod='chmod --preserve-root' alias chgrp='chgrp --preserve-root' alias rm='rm -I --preserve-root' alias ln='ln -i' ``` 下面是一些额外的OS X Unix bash shell别名: ``` # 从bash打开桌面应用 alias preview="open -a '$PREVIEW'" alias safari="open -a safari" alias firefox="open -a firefox" alias chrome="open -a google\ chrome" alias f='open -a Finder ' # 清理那些.DS_Store文件 alias dsclean='find . -type f -name .DS_Store -delete' ``` #### #8: 寡人好色 ``` # 彩色的grep输出 alias grep='grep --color=auto' export GREP_COLOR='1;33' # 彩色的ls export LSCOLORS='Gxfxcxdxdxegedabagacad' # Gnu/linux的ls ls='ls --color=auto' # BSD/os x的ls命令 # alias ls='ls -G' ``` #### #9: 设定自己喜好的bash函数 ``` # 在屏幕上显示10个最近的历史命令 function ht { history | awk '{a[$2]++}END{for(i in a){print a[i] " " i}}' | sort -rn | head } # host和ping命令的替代 # 接受http:// 或 https:// 或 ftps:// 名称用作域或主机名 _getdomainnameonly(){ local h="$1" local f="${h,,}" # remove protocol part of hostname f="${f#http://}" f="${f#https://}" f="${f#ftp://}" f="${f#scp://}" f="${f#scp://}" f="${f#sftp://}" # remove username and/or username:password part of hostname f="${f#*:*@}" f="${f#*@}" # remove all /foo/xyz.html* f=${f%%/*} # show domain name only echo "$f" } ping(){ local array=( $@ ) # get all args in an array local len=${#array[@]} # find the length of an array local host=${array[$len-1]} # get the last arg local args=${array[@]:0:$len-1} # get all args before the last arg in $@ in an array local _ping="/bin/ping" local c=$(_getdomainnameonly "$host") [ "$t" != "$c" ] && echo "Sending ICMP ECHO_REQUEST to \"$c\"..." # pass args and host $_ping $args $c } host(){ local array=( $@ ) local len=${#array[@]} local host=${array[$len-1]} local args=${array[@]:0:$len-1} local _host="/usr/bin/host" local c=$(_getdomainnameonly "$host") [ "$t" != "$c" ] && echo "Performing DNS lookups for \"$c\"..." $_host $args $c } ``` #### #10: 通过shell shopt命令设定bash shell行为 最后,你可以[使用set和shopt命令调整bash shell环境](http://bash.cyberciti.biz/guide/Setting_shell_options): ``` # 目录拼写纠正 shopt -q -s cdspell # 保证每次终端窗口改变大小后会更新显示 shopt -q -s checkwinsize # 打开高级模式匹配功能 shopt -q -s extglob # 退出时附加命令历史而不是覆盖 shopt -s histappend # 在命令历史使用多行 shopt -q -s cmdhist # 在后台任务结束时立刻通知 set -o notify # 禁用[CTRL-D]来结束shell set -o ignoreeof ``` ### 总结 这个帖子不难理解。它简短地将如何定制用户环境从头介绍了一下。要深入了解bash/ksh/zsh/csh/tcsh/的能力,我建议你用下面的命令阅读man文档: ``` man bash man zsh man tcsh man ksh ``` > > 这篇文章由Aadrika T. J.贡献;由admin编辑并增加了额外内容。你也可以[为nixCraft做出贡献](http://www.cyberciti.biz/write-for-nixcraft/)。 > > > --- via: <http://www.cyberciti.biz/howto/shell-primer-configuring-your-linux-unix-osx-environment/> 作者:[nixCraft](http://www.cyberciti.biz/tips/about-us) 译者:[zpl1025](https://github.com/zpl1025) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,154
Linux 基础:如何在Ubuntu上检查一个软件包是否安装
http://www.unixmen.com/linux-basics-check-package-installed-not-ubuntu/
2015-03-31T08:42:00
[ "软件包", "apt", "dpkg", "apt-get" ]
https://linux.cn/article-5154-1.html
![](/data/attachment/album/201503/30/134439j2j5747yac16y76w.png) 如果你正在管理Debian或者Ubuntu服务器,你也许会经常使用**dpkg** 或者 **apt-get**命令。这两个命令用来安装、卸载和更新包。 在本篇中,让我们看下如何在基于DEB的系统下检查是否安装了一个包。 要检查特定的包,比如firefox是否安装了,使用这个命令: ``` dpkg -s firefox ``` 示例输出: ``` Package: firefox Status: install ok installed Priority: optional Section: web Installed-Size: 93339 Maintainer: Ubuntu Mozilla Team <ubuntu-mozillateam@lists.ubuntu.com> Architecture: amd64 Version: 35.0+build3-0ubuntu0.14.04.2 Replaces: kubuntu-firefox-installer Provides: gnome-www-browser, iceweasel, www-browser Depends: lsb-release, libasound2 (>= 1.0.16), libatk1.0-0 (>= 1.12.4), libc6 (>= 2.17), libcairo2 (>= 1.2.4), libdbus-1-3 (>= 1.0.2), libdbus-glib-1-2 (>= 0.78), libfontconfig1 (>= 2.9.0), libfreetype6 (>= 2.2.1), libgcc1 (>= 1:4.1.1), libgdk-pixbuf2.0-0 (>= 2.22.0), libglib2.0-0 (>= 2.37.3), libgtk2.0-0 (>= 2.24.0), libpango-1.0-0 (>= 1.22.0), libpangocairo-1.0-0 (>= 1.14.0), libstartup-notification0 (>= 0.8), libstdc++6 (>= 4.6), libx11-6, libxcomposite1 (>= 1:0.3-1), libxdamage1 (>= 1:1.1), libxext6, libxfixes3, libxrender1, libxt6 Recommends: xul-ext-ubufox, libcanberra0, libdbusmenu-glib4, libdbusmenu-gtk4 Suggests: ttf-lyx Conffiles: /etc/firefox/syspref.js 09e457e65435a1a043521f2bd19cd2a1 /etc/apport/blacklist.d/firefox ee63264f847e671832d42255912ce144 /etc/apport/native-origins.d/firefox 7c26b75c7c2b715c89cc6d85338252a4 /etc/apparmor.d/usr.bin.firefox f54f7a43361c7ecfa3874abca2f292cf Description: Safe and easy web browser from Mozilla Firefox delivers safe, easy web browsing. A familiar user interface, enhanced security features including protection from online identity theft, and integrated search let you get the most out of the web. Xul-Appid: {ec8030f7-c20a-464f-9b0e-13a3a9e97384} ``` 如上所见,firefox已经安装了。 同样,你可以使用**dpkg-query** 命令。这个命令会有一个更好的输出,当然,你可以用通配符。 ``` dpkg-query -l firefox ``` 示例输出: ``` Desired=Unknown/Install/Remove/Purge/Hold | Status=Not/Inst/Conf-files/Unpacked/halF-conf/Half-inst/trig-aWait/Trig-pend |/ Err?=(none)/Reinst-required (Status,Err: uppercase=bad) ||/ Name Version Architecture Description +++-====================================-=======================-=======================-============================================================================= ii firefox 35.0+build3-0ubuntu0.14 amd64 Safe and easy web browser from Mozilla ``` 要列出你系统中安装的所有包,输入下面的命令: ``` dpkg --get-selections ``` 示例输出: ``` abiword install abiword-common install accountsservice install acl install adduser install alsa-base install alsa-utils install anacron install app-install-data install apparmor install . . . zeitgeist install zeitgeist-core install zeitgeist-datahub install zenity install zenity-common install zip install zlib1g:amd64 install zlib1g:i386 install ``` 上面的输出可能会非常长,这依赖于你的系统已安装的包。 你同样可以通过**grep**来过滤割到更精确的包。比如,我想要使用**dpkg**命令查看系统中安装的gcc包: ``` dpkg --get-selections | grep gcc ``` 示例输出: ``` gcc install gcc-4.8 install gcc-4.8-base:amd64 install gcc-4.8-base:i386 install gcc-4.9-base:amd64 install gcc-4.9-base:i386 install libgcc-4.8-dev:amd64 install libgcc1:amd64 install libgcc1:i386 install ``` 此外,你可以使用“**-L**”参数来找出包中文件的位置。 ``` dpkg -L gcc-4.8 ``` 示例输出: ``` /. /usr /usr/share /usr/share/doc /usr/share/doc/gcc-4.8-base /usr/share/doc/gcc-4.8-base/README.Bugs /usr/share/doc/gcc-4.8-base/NEWS.html /usr/share/doc/gcc-4.8-base/quadmath /usr/share/doc/gcc-4.8-base/quadmath/changelog.gz /usr/share/doc/gcc-4.8-base/gcc . . . /usr/bin/x86_64-linux-gnu-gcc-4.8 /usr/bin/x86_64-linux-gnu-gcc-ar-4.8 /usr/bin/x86_64-linux-gnu-gcov-4.8 ``` 就是这样了。希望这篇对你有用。 美好的一天! --- via: <http://www.unixmen.com/linux-basics-check-package-installed-not-ubuntu/> 作者:[SK](http://www.unixmen.com/author/sk/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,155
如何不用重启在CentOS 7/ RHEL 7虚拟机中添加一块新硬盘
http://www.ehowstuff.com/how-to-add-a-new-hard-disk-without-rebooting-on-centos-7-rhel-7/
2015-03-31T11:50:00
[ "SCSI", "磁盘" ]
https://linux.cn/article-5155-1.html
![](/data/attachment/album/201503/30/140713czz74ezv2oz996sp.jpg) 通常在你在虚拟机中添加一块新硬盘时,你可能会看到新硬盘没有自动加载。这是因为连接到硬盘的SCSI总线需要重新扫描来使得新硬盘可见。这里有一个简单的命令来重新扫描SCSI总线和SCSI设备。下面这几步在CentOS 7 和RHEL 7 中测试过。 1. 在ESXi或者vCenter中添加一块新的20G硬盘: ![](/data/attachment/album/201503/30/140034bs9bzqap4x033349.png) 2. 显示当前磁盘分区: ``` [root@centos7 ~]# fdisk -l ``` --- ``` Disk /dev/sda: 32.2 GB, 32212254720 bytes, 62914560 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x0006b96a Device Boot Start End Blocks Id System /dev/sda1 * 2048 1026047 512000 83 Linux /dev/sda2 1026048 62914559 30944256 8e Linux LVM Disk /dev/mapper/centos-swap: 2147 MB, 2147483648 bytes, 4194304 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk /dev/mapper/centos-root: 29.5 GB, 29536288768 bytes, 57688064 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes ``` 3. 确定主机总线号 ``` [root@centos7 ~]# ls /sys/class/scsi_host/ host0 host1 host2 ``` 4. 重新扫描SCSI总线来添加设备 ``` [root@centos7 ~]# echo "- - -" > /sys/class/scsi_host/host0/scan [root@centos7 ~]# echo "- - -" > /sys/class/scsi_host/host1/scan [root@centos7 ~]# echo "- - -" > /sys/class/scsi_host/host2/scan ``` 5. 验证磁盘和分区并确保20GB硬盘已经添加了。在本例中,出现了下面这行 “`Disk /dev/sdb: 21.5 GB, 21474836480 bytes, 41943040 sectors`” 并且可以确认没有重启服务器就添加了新盘: ``` [root@centos7 ~]# fdisk -l Disk /dev/sda: 32.2 GB, 32212254720 bytes, 62914560 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos Disk identifier: 0x0006b96a Device Boot Start End Blocks Id System /dev/sda1 * 2048 1026047 512000 83 Linux /dev/sda2 1026048 62914559 30944256 8e Linux LVM Disk /dev/mapper/centos-swap: 2147 MB, 2147483648 bytes, 4194304 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk /dev/mapper/centos-root: 29.5 GB, 29536288768 bytes, 57688064 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk /dev/sdb: 21.5 GB, 21474836480 bytes, 41943040 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes ``` --- via: <http://www.ehowstuff.com/how-to-add-a-new-hard-disk-without-rebooting-on-centos-7-rhel-7/> 作者:[skytech](http://www.ehowstuff.com/author/mhstar/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,160
如何在CentOS 7.0 安装 Websvn
http://linoxide.com/linux-how-to/install-websvn-subversion-centos-7/
2015-03-31T13:06:00
[ "svn", "subversion", "websvn" ]
/article-5160-1.html
大家好,今天我们会在CentOS 7.0 上为 subversion(SVN)安装Web 界面 WebSVN。(subverion 是 apache 的顶级项目,也称为 Apache SVN 或 SVN) WebSVN 将 Svbverion 的操作你的仓库的各种功能通过 Web 界面提供出来。通过它,我们可以看到任何给定版本的任何文件或者目录的日志,并且可看到所有文件改动、添加、删除的列表。我们同样可以查看两个版本间的差异来知道特定版本改动了什么。 ![](/data/attachment/album/201503/31/130653nf881h288fz9fglh.png) ### 特性 WebSVN提供了下面这些特性: * 易于使用的用户界面 * 可定制的模板系统 * 色彩化的文件列表 * 追溯视图 * 日志信息查询 * RSS支持 * [更多](http://www.websvn.info/features/) 由于其使用PHP写成,WebSVN同样易于移植和安装。 现在我们将为Subverison安装WebSVN。请确保你的服务器上已经安装了 SVN。如果你还没有安装,你可以按[本教程](http://linoxide.com/linux-how-to/install-apache-svn-subversion-centos-7/)安装。 安装完SVN后,你需要以下几步。 ### 1. 下载 WebSVN 你可以从官方网站 <http://www.websvn.info/download/> 中下载 WebSVN。我们首先进入 /var/www/html/ 并在这里下载安装包。 ``` $ sudo -s ``` **请在shell或者终端中执行上面的命令,因为我们需要切换到root权限来对系统限制区域有访问权。** ``` # cd /var/www/html # wget http://websvn.tigris.org/files/documents/1380/49057/websvn-2.3.3.zip ``` ![downloading websvn package](/data/attachment/album/201503/31/130700f72uddss9ti9ssum.png) 这里,我下载的是最新的2.3.3版本的 websvn。你可以从上面这个网站找到下载链接,用适合你的包的链接来替换上面的链接。 ### 2. 解压下载的zip ``` # unzip websvn-2.3.3.zip # mv websvn-2.3.3 websvn ``` ![extracting websvn](/data/attachment/album/201503/31/130703qxnnxqwf6xxnxxnv.png) ### 3. 安装php ``` # yum install php ``` ![yum install php](/data/attachment/album/201503/31/130705lnk1ym11w4emvy1e.png) ### 4. 编辑WebSVN配置 现在,我们需要拷贝位于 /var/www/html/websvn/include 的 distconfig.php 为 config.php,并且接着编辑该配置文件。 ``` # cd /var/www/html/websvn/include # cp distconfig.php config.php # nano config.php ``` 现在我们需要按如下改变文件。完成之后,请保存并退出。 ``` // Configure these lines if your commands aren't on your path. // $config->setSVNCommandPath('/usr/bin'); // e.g. c:\\program files\\subversion\\bin $config->setDiffPath('/usr/bin'); // For syntax colouring, if option enabled... $config->setEnscriptPath('/usr/bin'); $config->setSedPath('/bin'); // For delivered tarballs, if option enabled... $config->setTarPath('/bin'); // For delivered GZIP'd files and tarballs, if option enabled... $config->setGZipPath('/bin'); // $config->parentPath('/svn/'); $extEnscript[".pl"] = "perl"; $extEnscript[".py"] = "python"; $extEnscript[".sql"] = "sql"; $extEnscript[".java"] = "java"; $extEnscript[".html"] = "html"; $extEnscript[".xml"] = "html"; $extEnscript[".thtml"] = "html"; $extEnscript[".tpl"] = "html"; $extEnscript[".sh"] = "bash"; ``` ![websvn config file](/data/attachment/album/201503/31/130708jqquusnrunt0rqqy.png) ### 5. 启动 WebSVN 现在,我们将近完成了。现在需要重启Apache服务。你可以用下面的命令。 ``` # systemctl restart httpd.service ``` 接着我们在浏览器中打开WebSVN,输入 http:// IP地址/websvn ,或者你在本地的话,你可以输入 http://localhost/websvn 。 ![websvn successfully installed](/data/attachment/album/201503/31/130710ch0z9shr310cocjz.png) **注意**: 如果你遇到一个像"Unable to find "enscript" tool at location "/usr/bin/enscript"这样的问题,那么你需要使用“yum install enscript”安装enscript来修复这个问题。 ### 总结 好了,我们已经在CentOS 7上完成WebSVN的安装了。这个教程同样适用于RHEL 7。 如果你有任何问题、评论、反馈请在下面的评论栏中留下,来让我们知道该添加什么和改进。谢谢! 用用看吧。:-) --- via: <http://linoxide.com/linux-how-to/install-websvn-subversion-centos-7/> 作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/install-websvn-subversion-centos-7/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c4790>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,161
Linux基础:如何找出你的系统所支持的最大内存
http://www.unixmen.com/linux-basics-how-to-find-maximum-supported-ram-by-your-system/
2015-03-31T14:11:00
[ "dmidecode" ]
https://linux.cn/article-5161-1.html
![](/data/attachment/album/201503/31/131321kdetonrxz61q1763.jpg) 大多数情况下你可以从BIOS、产品目录或者干脆手动找出你的系统所持的最大内存。这里,我们介绍一种简单有用的技巧——使用dmidecode来找出系统支持的最大内存,这样你就无需打开机箱或者参照BIOS和产品目录了。 ### 什么是 dmidecode? 就像你可能知道的一样, dmidecode是一个将计算机DMI(又名SMBIOS)表的内容转换为可读格式的工具。这个表包含了系统硬件组件的介绍以及其他一些如序列号和IOS版本等有用的信息。使用dmidecode你能够获取此项信息,而无需去探测真实的硬件。 ### 找出你的系统所支持的最大内存 请确定你已经在系统中安装了dmidecode,我觉得你的操作系统应该已经自动安装过了,不过并不非常确定。 **在基于Deb的系统中安装** ``` sudo apt-get install dmidecode ``` **在基于RPM的系统中安装** ``` sudo yum install dmidecode ``` **在SUSE/openSUSE中安装** ``` sudo zypper in dmidecode ``` 好了,我们已经安装了dmidecode,接下来让我们找出支持的最大内存。输入以下命令: ``` sudo dmidecode -t 16 ``` **输出样本** ``` # dmidecode 2.12 SMBIOS 2.6 present. Handle 0x0014, DMI type 16, 15 bytes Physical Memory Array Location: System Board Or Motherboard Use: System Memory Error Correction Type: None Maximum Capacity: 16 GB Error Information Handle: Not Provided Number Of Devices: 2 ``` 就像你看到的,我的系统支持最大内存到16G,并且有两个内存插槽,简单吧? 接下来,让我们找出现在已经安装的内存的详细信息。 ``` sudo dmidecode -t 17 ``` **输出样本** ``` # dmidecode 2.12 SMBIOS 2.6 present. Handle 0x0017, DMI type 17, 28 bytes Memory Device Array Handle: 0x0014 Error Information Handle: 0x0000 Total Width: Unknown Data Width: Unknown Size: No Module Installed Form Factor: DIMM Set: None Locator: DIMM_B Bank Locator: BANK 2 Type: Unknown Type Detail: None Speed: Unknown Manufacturer: Not Specified Serial Number: Not Specified Asset Tag: Not Specified Part Number: Not Specified Rank: Unknown Handle 0x0015, DMI type 17, 28 bytes Memory Device Array Handle: 0x0014 Error Information Handle: 0x0000 Total Width: 64 bits Data Width: 64 bits Size: 4096 MB Form Factor: SODIMM Set: None Locator: DIMM_A Bank Locator: BANK 0 Type: DDR3 Type Detail: Synchronous Speed: 1067 MHz Manufacturer: 014F Serial Number: 00092AF2 Asset Tag: 54114000 Part Number: JM1066KSN-4G Rank: Unknown ``` 就像上边输出的一样,我在插槽1里边安装了一个内存条。内存大小为**4G**,类型为**DDR3**,速度为**1067 MHz**。 同样的,我们可以通过下边命令得到完整的内存信息。 ``` sudo dmidecode -t memory sudo dmidecode -t memory | less sudo dmidecode -t memory | more ``` **输出样本** ``` # dmidecode 2.12 SMBIOS 2.6 present. Handle 0x0014, DMI type 16, 15 bytes Physical Memory Array Location: System Board Or Motherboard Use: System Memory Error Correction Type: None Maximum Capacity: 16 GB Error Information Handle: Not Provided Number Of Devices: 2 Handle 0x0017, DMI type 17, 28 bytes Memory Device Array Handle: 0x0014 Error Information Handle: 0x0000 Total Width: Unknown Data Width: Unknown Size: No Module Installed Form Factor: DIMM Set: None Locator: DIMM_B Bank Locator: BANK 2 Type: Unknown Type Detail: None Speed: Unknown Manufacturer: Not Specified Serial Number: Not Specified Asset Tag: Not Specified Part Number: Not Specified Rank: Unknown Handle 0x0015, DMI type 17, 28 bytes Memory Device Array Handle: 0x0014 Error Information Handle: 0x0000 Total Width: 64 bits Data Width: 64 bits Size: 4096 MB Form Factor: SODIMM Set: None Locator: DIMM_A Bank Locator: BANK 0 Type: DDR3 Type Detail: Synchronous Speed: 1067 MHz Manufacturer: 014F Serial Number: 00092AF2 Asset Tag: 54114000 Part Number: JM1066KSN-4G Rank: Unknown ``` 如果你好奇想要知道整个系统的详细信息,例如主板、内存、BIOS等,那么可以输入以下命令来获取。 ``` sudo dmidecode ``` **输出样本** ``` # dmidecode 2.12 SMBIOS 2.6 present. 48 structures occupying 2173 bytes. Table at 0x000EB840. Handle 0xDA00, DMI type 218, 251 bytes OEM-specific Type Header and Data: DA FB 00 DA B2 00 0D 5F 0F 37 40 7D 00 00 00 00 00 7E 00 01 00 00 00 DC 01 00 80 02 00 DD 01 00 80 03 00 75 01 01 80 01 00 76 01 02 80 01 00 2D 01 03 80 01 00 2E 01 03 80 00 00 81 01 07 80 00 00 82 01 07 80 01 00 83 01 08 80 00 00 84 01 08 80 01 00 85 01 06 80 00 00 86 01 06 80 01 00 58 02 05 80 00 00 57 02 05 80 01 00 9C 00 02 00 01 00 9B 00 02 00 00 00 8A 01 03 00 01 00 89 01 03 00 00 00 7F 01 04 00 00 00 80 01 04 00 01 00 53 01 05 00 00 00 52 01 05 00 01 00 7B 01 06 00 00 00 7C 01 06 00 01 00 94 01 07 00 00 00 93 01 07 00 01 00 7D 00 08 00 00 00 2D 00 09 00 01 00 2E 00 09 00 00 00 6E 00 0A 00 00 00 95 00 0B 00 01 00 96 00 0B 00 00 00 2F 02 0C 00 01 00 30 02 0C 00 00 00 50 02 0D 00 00 00 51 02 0D 00 01 00 52 02 0D 00 02 00 FF FF 00 00 00 00 Handle 0xDA01, DMI type 218, 59 bytes OEM-specific Type Header and Data: DA 3B 01 DA B2 00 0D 5F 0F 37 40 53 02 0D 00 03 00 54 02 0D 00 04 00 56 02 0D 00 05 00 4B 01 0E 00 01 00 4A 01 0E 00 00 00 EA 00 0F 00 01 00 EB 00 0F 00 00 00 FF FF 00 00 00 00 Handle 0x0004, DMI type 4, 42 bytes Processor Information Socket Designation: CPU 1 Type: Central Processor Family: Core i3 Manufacturer: Intel ID: A7 06 03 01 FF FB AB BE Signature: Type 0, Family 6, Model 42, Stepping 7 Flags: FPU (Floating-point unit on-chip) VME (Virtual mode extension) DE (Debugging extension) PSE (Page size extension) TSC (Time stamp counter) MSR (Model specific registers) PAE (Physical address extension) MCE (Machine check exception) CX8 (CMPXCHG8 instruction supported) APIC (On-chip APIC hardware supported) SEP (Fast system call) MTRR (Memory type range registers) PGE (Page global enable) MCA (Machine check architecture) CMOV (Conditional move instruction supported) PAT (Page attribute table) PSE-36 (36-bit page size extension) CLFSH (CLFLUSH instruction supported) DS (Debug store) ACPI (ACPI supported) MMX (MMX technology supported) FXSR (FXSAVE and FXSTOR instructions supported) SSE (Streaming SIMD extensions) SSE2 (Streaming SIMD extensions 2) SS (Self-snoop) HTT (Multi-threading) TM (Thermal monitor supported) PBE (Pending break enabled) Version: Intel(R) Core(TM) i3-2350M CPU @ 2.30GHz Voltage: 1.1 V External Clock: 100 MHz Max Speed: 2300 MHz Current Speed: 2300 MHz Status: Populated, Enabled Upgrade: Other L1 Cache Handle: 0x0005 L2 Cache Handle: 0x0006 L3 Cache Handle: 0x0007 Serial Number: To Be Filled By O.E.M. Asset Tag: To Be Filled By O.E.M. Part Number: To Be Filled By O.E.M. Core Count: 2 Core Enabled: 1 Thread Count: 2 Characteristics: 64-bit capable Handle 0x0005, DMI type 7, 19 bytes Cache Information Socket Designation: L1-Cache Configuration: Enabled, Not Socketed, Level 1 Operational Mode: Write Back Location: Internal Installed Size: 64 kB Maximum Size: 64 kB Supported SRAM Types: Other Installed SRAM Type: Other Speed: Unknown Error Correction Type: None System Type: Unified Associativity: 8-way Set-associative Handle 0x0006, DMI type 7, 19 bytes Cache Information Socket Designation: L2-Cache Configuration: Enabled, Not Socketed, Level 2 Operational Mode: Varies With Memory Address Location: Internal Installed Size: 512 kB Maximum Size: 512 kB Supported SRAM Types: Other Installed SRAM Type: Other Speed: Unknown Error Correction Type: None System Type: Unified Associativity: 8-way Set-associative Handle 0x0007, DMI type 7, 19 bytes Cache Information Socket Designation: L3-Cache Configuration: Enabled, Not Socketed, Level 3 Operational Mode: Varies With Memory Address Location: Internal Installed Size: 3072 kB Maximum Size: 3072 kB Supported SRAM Types: Other Installed SRAM Type: Other Speed: Unknown Error Correction Type: None System Type: Unified Associativity: Other Handle 0x0008, DMI type 8, 9 bytes Port Connector Information Internal Reference Designator: J1A1 Internal Connector Type: None External Reference Designator: PS2Mouse External Connector Type: PS/2 Port Type: Mouse Port Handle 0x0009, DMI type 8, 9 bytes Port Connector Information Internal Reference Designator: J1A1 Internal Connector Type: None External Reference Designator: Keyboard External Connector Type: PS/2 Port Type: Keyboard Port Handle 0x000A, DMI type 8, 9 bytes Port Connector Information Internal Reference Designator: J2A2B Internal Connector Type: None External Reference Designator: Video External Connector Type: DB-15 female Port Type: Video Port Handle 0x000B, DMI type 8, 9 bytes Port Connector Information Internal Reference Designator: J3A1 Internal Connector Type: None External Reference Designator: USB1 External Connector Type: Access Bus (USB) Port Type: USB Handle 0x000C, DMI type 8, 9 bytes Port Connector Information Internal Reference Designator: J3A1 Internal Connector Type: None External Reference Designator: USB2 External Connector Type: Access Bus (USB) Port Type: USB Handle 0x000D, DMI type 8, 9 bytes Port Connector Information Internal Reference Designator: J3A1 Internal Connector Type: None External Reference Designator: USB3 External Connector Type: Access Bus (USB) Port Type: USB Handle 0x000E, DMI type 8, 9 bytes Port Connector Information Internal Reference Designator: J5A1 Internal Connector Type: None External Reference Designator: LAN External Connector Type: RJ-45 Port Type: Network Port Handle 0x000F, DMI type 9, 17 bytes System Slot Information Designation: J6B2 Type: x16 PCI Express Current Usage: In Use Length: Long ID: 0 Characteristics: 3.3 V is provided Opening is shared PME signal is supported Bus Address: 0000:00:01.0 Handle 0x0010, DMI type 9, 17 bytes System Slot Information Designation: J6B1 Type: x1 PCI Express Current Usage: In Use Length: Short ID: 1 Characteristics: 3.3 V is provided Opening is shared PME signal is supported Bus Address: 0000:00:1c.3 Handle 0x0012, DMI type 11, 5 bytes OEM Strings String 1: Dell System String 2: 5[0003] String 3: 13[P18F] Handle 0x0013, DMI type 12, 5 bytes System Configuration Options Option 1: To Be Filled By O.E.M. Handle 0x001C, DMI type 21, 7 bytes Built-in Pointing Device Type: Touch Pad Interface: Bus Mouse Buttons: 2 Handle 0x001D, DMI type 22, 26 bytes Portable Battery Location: Sys. Battery Bay Manufacturer: Sanyo Serial Number: 5390 Name: DELL 4YRJH22 Chemistry: Lithium Ion Design Capacity: 45000 mWh Design Voltage: 10800 mV SBDS Version: 1.0 Maximum Error: 2% SBDS Manufacture Date: 2012-02-28 OEM-specific Information: 0x00000001 Handle 0x001E, DMI type 32, 20 bytes System Boot Information Status: No errors detected Handle 0x0020, DMI type 27, 12 bytes Cooling Device Type: Fan Status: OK OEM-specific Information: 0x00000000 Handle 0x0021, DMI type 28, 20 bytes Temperature Probe Description: CPU Internal Temperature Location: Processor Status: OK Maximum Value: 127.0 deg C Minimum Value: 0.0 deg C Resolution: 1.000 deg C Tolerance: 0.5 deg C Accuracy: Unknown OEM-specific Information: 0x00000000 Handle 0xB000, DMI type 176, 5 bytes OEM-specific Type Header and Data: B0 05 00 B0 00 Handle 0xB100, DMI type 177, 12 bytes OEM-specific Type Header and Data: B1 0C 00 B1 1A 0E 00 00 00 00 00 00 Handle 0x0025, DMI type 209, 12 bytes OEM-specific Type Header and Data: D1 0C 25 00 00 00 00 03 05 01 00 03 Handle 0x0026, DMI type 210, 12 bytes OEM-specific Type Header and Data: D2 0C 26 00 00 00 00 03 05 20 01 03 Handle 0x0027, DMI type 211, 13 bytes OEM-specific Type Header and Data: D3 0D 27 00 01 00 00 00 00 02 03 04 04 Strings: Front Handle 0x0028, DMI type 212, 57 bytes OEM-specific Type Header and Data: D4 39 28 00 70 00 71 00 01 49 50 48 9C 00 49 FC 01 9B 00 49 FC 00 7F 01 4A FB 04 80 01 4A FB 00 53 01 4A F7 08 52 01 4A F7 08 7B 01 4A EF 10 7C 01 4A EF 10 FF FF 00 00 00 Handle 0x002A, DMI type 217, 8 bytes OEM-specific Type Header and Data: D9 08 2A 00 01 02 00 00 Strings: Handle 0x002B, DMI type 219, 11 bytes OEM-specific Type Header and Data: DB 0B 2B 00 00 01 02 03 00 04 05 Strings: Handle 0x002C, DMI type 220, 22 bytes OEM-specific Type Header and Data: DC 16 2C 00 01 F0 00 00 02 F0 00 00 00 00 03 F0 04 F0 00 00 00 00 Handle 0x002D, DMI type 221, 19 bytes OEM-specific Type Header and Data: DD 13 2D 00 00 00 00 00 00 03 00 00 00 00 00 00 00 00 00 Handle 0x002E, DMI type 222, 16 bytes OEM-specific Type Header and Data: DE 10 2E 00 01 08 FF FF 00 00 00 00 00 00 00 00 Handle 0x0014, DMI type 16, 15 bytes Physical Memory Array Location: System Board Or Motherboard Use: System Memory Error Correction Type: None Maximum Capacity: 16 GB Error Information Handle: Not Provided Number Of Devices: 2 Handle 0x0016, DMI type 20, 19 bytes Memory Device Mapped Address Starting Address: 0x00000000000 Ending Address: 0x000FFFFFFFF Range Size: 4 GB Physical Device Handle: 0x0015 Memory Array Mapped Address Handle: 0x0018 Partition Row Position: 1 Interleave Position: 1 Interleaved Data Depth: 1 Handle 0x0017, DMI type 17, 28 bytes Memory Device Array Handle: 0x0014 Error Information Handle: 0x0000 Total Width: Unknown Data Width: Unknown Size: No Module Installed Form Factor: DIMM Set: None Locator: DIMM_B Bank Locator: BANK 2 Type: Unknown Type Detail: None Speed: Unknown Manufacturer: Not Specified Serial Number: Not Specified Asset Tag: Not Specified Part Number: Not Specified Rank: Unknown Handle 0x0018, DMI type 19, 15 bytes Memory Array Mapped Address Starting Address: 0x00000000000 Ending Address: 0x000FFFFFFFF Range Size: 4 GB Physical Array Handle: 0x0014 Partition Width: 2 Handle 0x002F, DMI type 13, 22 bytes BIOS Language Information Language Description Format: Abbreviated Installable Languages: 1 eng Currently Installed Language: eng Handle 0x0030, DMI type 131, 64 bytes OEM-specific Type Header and Data: 83 40 30 00 31 00 00 00 00 00 00 00 00 00 00 00 F8 00 4B 1C FF FF FF FF 01 00 00 00 00 00 07 00 AD 04 04 00 00 00 00 00 C8 00 FF FF 00 00 00 00 00 00 00 00 32 00 00 00 76 50 72 6F 00 00 00 00 Handle 0x0029, DMI type 216, 9 bytes OEM-specific Type Header and Data: D8 09 29 00 01 02 01 00 00 Strings: INTEL 0000 Handle 0x0000, DMI type 0, 24 bytes BIOS Information Vendor: Dell Inc. Version: A05 Release Date: 08/03/2012 Address: 0xF0000 Runtime Size: 64 kB ROM Size: 2048 kB Characteristics: MCA is supported PCI is supported BIOS is upgradeable BIOS shadowing is allowed ESCD support is available Boot from CD is supported Selectable boot is supported BIOS ROM is socketed EDD is supported 5.25"/1.2 MB floppy services are supported (int 13h) 3.5"/720 kB floppy services are supported (int 13h) 3.5"/2.88 MB floppy services are supported (int 13h) Print screen service is supported (int 5h) 8042 keyboard services are supported (int 9h) Serial services are supported (int 14h) Printer services are supported (int 17h) CGA/mono video services are supported (int 10h) ACPI is supported USB legacy is supported ATAPI Zip drive boot is supported BIOS boot specification is supported Targeted content distribution is supported BIOS Revision: 0.5 Firmware Revision: 0.5 Handle 0x0002, DMI type 2, 15 bytes Base Board Information Manufacturer: Dell Inc. Product Name: 01HXXJ Version: A05 Serial Number: .JSQ7PA1.CN7117623M00J2. Asset Tag: Not Specified Features: Board is a hosting board Board is replaceable Location In Chassis: To Be Filled By O.E.M. Chassis Handle: 0x0003 Type: Motherboard Contained Object Handles: 0 Handle 0x0003, DMI type 3, 21 bytes Chassis Information Manufacturer: Dell Inc. Type: Portable Lock: Not Present Version: Not Specified Serial Number: JSR1 Asset Tag: Not Specified Boot-up State: Safe Power Supply State: Safe Thermal State: Safe Security Status: None OEM Information: 0x00000000 Height: Unspecified Number Of Power Cords: 1 Contained Elements: 0 Handle 0x0001, DMI type 1, 27 bytes System Information Manufacturer: Dell Inc. Product Name: Inspiron N5050 Version: Not Specified Serial Number: JSR1 UUID: 4C4C4544-0053-5110-8029-CAC05241 Wake-up Type: Power Switch SKU Number: To be filled by O.E.M. Family: Handle 0x0024, DMI type 208, 12 bytes OEM-specific Type Header and Data: D0 0C 24 00 02 05 FE 00 04 05 01 02 Strings: 20120323 20120323 Handle 0x0011, DMI type 10, 6 bytes On Board Device Information Type: Video Status: Enabled Description: Mobile Intel SandyBridge HD Graphics Handle 0x0015, DMI type 17, 28 bytes Memory Device Array Handle: 0x0014 Error Information Handle: 0x0000 Total Width: 64 bits Data Width: 64 bits Size: 4096 MB Form Factor: SODIMM Set: None Locator: DIMM_A Bank Locator: BANK 0 Type: DDR3 Type Detail: Synchronous Speed: 1067 MHz Manufacturer: 014F Serial Number: 0009F2 Asset Tag: 54114000 Part Number: JM1066-4G Rank: Unknown Handle 0x0031, DMI type 127, 4 bytes End Of Table ``` 好了,就是这样。 --- via: <http://www.unixmen.com/linux-basics-how-to-find-maximum-supported-ram-by-your-system/> 作者:[SK](https://www.unixmen.com/author/sk/) 译者:[mr-ping](https://github.com/mr-ping) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,163
开源的巨大胜利,印度强制要求其政府使用开源软件
http://fossbytes.com/big-win-for-foss-india-makes-use-of-open-source-software-mandatory/
2015-03-31T15:37:00
[ "印度", "开源软件", "政府" ]
https://linux.cn/article-5163-1.html
![india-open-source-software-foss](/data/attachment/album/201503/31/153726edsdk3ybjmsmdkvy.jpg) 印度政府做了一项重大政策改变,它宣布其政府的所有软件服务和应用都将**强制**采用开源软件。印度政府说,这是他们的[数字印度](http://fossbytes.com/indian-government-launches-digilocker-cloud-storage-people/)计划的一部分,所有的电子政务项目都将采用自由和开源软件(FOSS)。 据一份来自印度电子和信息技术部(DeitY)的[申明](http://deity.gov.in/sites/upload_files/dit/files/policy_on_adoption_of_oss.pdf)说:“印度政府应当努力在各个政府部门所实施的电子政务系统中采用自由和开源软件,(对开源软件的采用)要优先于闭源软件。” 印度政府说,这一举措将确保透明度、可靠性和效率。而在去年11月,印度电子和信息技术部部长说,“只要有可能”就优先采用开源软件,仅在开源软件不能满足功能需求时才选择闭源软件。 该申明补充道: “政府部门应确保遵循这一要求,并通过在软件能力、战略控制、可伸缩性、软件生命周期成本和支持需求等方面对开源软件和闭源软件做比较而决定。” 美国、几个欧洲国家和英国等一些国家都把开源软件作为优先选择。此外, 印度的喀拉拉邦政府据闻已经使用开源软件很长一段时间了。已经上线的印度政府总门户网站 [MyGov.in](http://fossbytes.com/google-app-for-indian-prime-minister-modi-digital-india/ "Google Wants to Build App for Indian Prime Minister’s Office With You") 完全是通过开源软件所开发的。 这件事被认为是开源运动的一大胜利,其根本原因在于开源技术能够极大地降低成本。印度是世界上增长最快的国家之一,其在信息时代前沿的发展上具有巨大潜力。随着这个政策的改变,开源软件可能成为印度技术革命的驱动力。
301
Moved Permanently
null
5,166
如何在Linux服务器中隐藏PHP版本
http://www.ehowstuff.com/how-to-hide-php-version-in-linux/
2015-04-01T08:00:00
[ "php", "apache", "nginx" ]
https://linux.cn/article-5166-1.html
通常,大多数默认设置安装的web服务器存在信息泄露,这其中之一就是PHP。PHP 是如今流行的服务端html嵌入式语言(之一?)。在如今这个充满挑战的时代,有许多攻击者会尝试发现你服务端的漏洞。因此,我会简单描述如何在Linux服务器中隐藏PHP信息。 ![](/data/attachment/album/201503/31/234317pul3wy8pl8c73ce3.jpg) 默认上**expose\_php**默认是开的。关闭“expose\_php”参数可以使php隐藏它的版本信息。 ``` [root@centos66 ~]# vi /etc/php.ini ``` 在你的php.ini, 定位到含有expose\_php的那行把On设成Off: ``` expose_php = Off ``` 在此之前,web服务器头看上去就像这样: ``` [root@centos66 ~]# curl -I http://www.ehowstuff.com/ ``` --- ``` HTTP/1.1 200 OK Server: nginx Content-Type: text/html; charset=UTF-8 Vary: Accept-Encoding X-Powered-By: PHP/5.3.3 X-Pingback: http://www.ehowstuff.com/xmlrpc.php Date: Wed, 11 Feb 2015 14:10:43 GMT X-Page-Speed: 1.9.32.2-4321 Cache-Control: max-age=0, no-cache ``` 更改并重启 Web 服务后,php就不会在web服务头中显示版本了: ``` HTTP/1.1 200 OK Server: nginx Date: Wed, 11 Feb 2015 15:38:14 GMT Content-Type: text/html; charset=UTF-8 Vary: Accept-Encoding X-Pingback: http://www.ehowstuff.com/xmlrpc.php Date: Wed, 11 Feb 2015 14:10:43 GMT X-Page-Speed: 1.9.32.2-4321 Cache-Control: max-age=0, no-cache ``` LCTT译注:除了 PHP 的版本之外,Web 服务器也会默认泄露版本号。如果使用 Apache 服务器,请[参照此文章关闭Apache 版本显示](http://linux.cn/article-3642-1.html);如果使用 Nginx 服务器,请在 http 段内加入`server_tokens off;` 配置。以上修改请记得重启相关服务。 --- via: <http://www.ehowstuff.com/how-to-hide-php-version-in-linux/> 作者:[skytech](http://www.ehowstuff.com/author/mhstar/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,167
在linux中创建和解压文档的11个 tar 命令例子
http://www.binarytides.com/linux-tar-command/
2015-04-01T09:23:00
[ "tar", "归档", "压缩" ]
https://linux.cn/article-5167-1.html
### linux中的tar命令 tar(磁带归档)命令是linux系统中被经常用来将文件存入到一个归档文件中的命令。 其常见的文件扩展包括:.tar.gz 和 .tar.bz2, 分别表示通过了gzip或bzip算法进一步进行了压缩。 在本教程中我们会管中窥豹一下在linux桌面或服务器版本中使用tar命令来处理一些创建和解压归档文件的日常工作的例子。 ![](/data/attachment/album/201504/01/002720igszsupsvy7pj9vg.png) ### 使用tar命令 tar命令在大部分linux系统默认情况下都是可用的,所以你不用单独安装该软件。 > > tar命令具有两个压缩格式,gzip和bzip,该命令的“z”选项用来指定gzip,“j”选项用来指定bzip。同时也可以创建非压缩归档文件。 > > > #### 1.解压一个tar.gz归档 一般常见的用法是用来解压归档文件,下面的命令将会把文件从一个tar.gz归档文件中解压出来。 ``` $ tar -xvzf tarfile.tar.gz ``` 这里对这些参数做一个简单解释- > > x - 解压文件 > > > v - 冗长模式,在解压每个文件时打印出文件的名称。 > > > z - 该文件是一个使用 gzip 压缩的文件。 > > > f - 使用接下来的tar归档来进行操作。 > > > 这些就是一些需要记住的重要选项。 **解压 tar.bz2/bzip 归档文件** 具有bz2扩展名的文件是使用bzip算法进行压缩的,但是tar命令也可以对其进行处理,但是需要通过使用“j”选项来替换“z”选项。 ``` $ tar -xvjf archivefile.tar.bz2 ``` #### 2.将文件解压到一个指定的目录或路径 为了将文件解压到一个指定的目录中,使用“-C”选项来指定路径,此处的“C”是大写“C”。 ``` $ tar -xvzf abc.tar.gz -C /opt/folder/ ``` 然后,首先需要确认目标目录是否存在,毕竟tar命令并不会为你创建目录,所以如果目标目录不存在的情况下该命令会失败。 #### 3. 提取出单个文件 为了从一个归档文件中提取出单个文件,只需要将文件名按照以下方式将其放置在命令后面。 ``` $ tar -xz -f abc.tar.gz "./new/abc.txt" ``` 在上述命令中,可以按照以下方式来指定多个文件。 ``` $ tar -xz -f abc.tar.gz "./new/cde.txt" "./new/abc.txt" ``` #### 4.使用通配符来解压多个文件 通配符可以用来解压于给定通配符匹配的一批文件,例如所有以".txt"作为扩展名的文件。 ``` $ tar -xz -f abc.tar.gz --wildcards "*.txt" ``` #### 5. 列出并检索tar归档文件中的内容 如果你仅仅想要列出而不是解压tar归档文件的中的内容,使用“-t”(test)选项, 下面的命令用来打印一个使用gzip压缩过的tar归档文件中的内容。 ``` $ tar -tz -f abc.tar.gz ./new/ ./new/cde.txt ./new/subdir/ ./new/subdir/in.txt ./new/abc.txt ... ``` 可以将输出通过管道定向到grep来搜索一个文件,或者定向到less命令来浏览内容列表。 使用"v"冗长选项将会打印出每个文件的额外详细信息。 对于 tar.bz2/bzip文件,需要使用"j"选项。 结合上述的命令和grep命令来检索归档文件,如下所示。简单吧! ``` $ tar -tvz -f abc.tar.gz | grep abc.txt -rw-rw-r-- enlightened/enlightened 0 2015-01-13 11:40 ./new/abc.txt ``` #### 6.创建一个tar/tar.gz归档文件 现在我们已经学过了如何解压一个tar归档文件,是时候开始创建一个新的tar归档文件了。tar命令可以用来将所选的文件或整个目录放入到一个归档文件中,以下是相应的样例。 下面的命令使用一个目录来创建一个tar归档文件,它会将该目录中所有的文件和子目录都加入到归档文件中。 ``` $ tar -cvf abc.tar ./new/ ./new/ ./new/cde.txt ./new/abc.txt ``` 上述命令不会创建一个压缩的的归档文件,只是一个普通的归档文件,只是将多个文件放入到一个归档文件中并没有真正地压缩每个文件。 为了使用压缩,可以分别使用“z”或“j”选项进行gzip或bzip压缩算法。 ``` $ tar -cvzf abc.tar.gz ./new/ ``` > > 文件的扩展名其实并不真正有什么影响。“tar.gz” 和“tgz”是gzip压缩算法压缩文件的常见扩展名。 “tar.bz2”和“tbz”是bzip压缩算法压缩文件的常见扩展名(LCTT 译注:归档是否是压缩的和采用哪种压缩方式并不取决于其扩展名,扩展名只是为了便于辨识。)。 > > > #### 7. 在添加文件之前进行确认 一个有用的选项是“w”,该选项使得tar命令在添加每个文件到归档文件之前来让用户进行确认,有时候这会很有用。 使用该选项时,只有用户输入“y”时的文件才会被加入到归档文件中,如果你不输入任何东西,其默认表示是一个“n”。 ``` # 添加指定文件 $ tar -czw -f abc.tar.gz ./new/* add ‘./new/abc.txt’?y add ‘./new/cde.txt’?y add ‘./new/newfile.txt’?n add ‘./new/subdir’?y add ‘./new/subdir/in.txt’?n #现在列出所有被加入的文件 $ tar -t -f abc.tar.gz ./new/abc.txt ./new/cde.txt ./new/subdir/ ``` #### 8. 加入文件到存在的归档文件中 “r”选项可以被用来将文件加入到已存在的归档文件中,而不用创建一个新的归档文件,下面是一个简单的样例: ``` $ tar -rv -f abc.tar abc.txt ``` > > 文件并不能加入到已压缩的归档文件中(gz 或 bzip)。文件只能被加入到普通的归档文件中。 > > > #### 9. 将文件加入到压缩的归档文件中(tar.gz/tar.bz2) 之前已经提到了不可能将文件加入到已压缩的归档文件中,然而依然可以通过简单的一些把戏来完成。使用gunzip命令来解压缩归档文件,然后将文件加入到归档文件中后重新进行压缩。 ``` $ gunzip archive.tar.gz $ tar -rf archive.tar ./path/to/file $ gzip archive.tar ``` 对于bzip文件分别使用bzip2和bunzip2。 #### 10.通过tar来进行备份 一个真实的场景是在固定的时间间隔内来备份目录,tar命令可以通过cron调度来实现这样的一个备份,以下是一个样例 : ``` $ tar -cvz -f archive-$(date +%Y%m%d).tar.gz ./new/ ``` 使用cron来运行上述的命令会保持创建类似以下名称的备份文件 :'archive-20150218.tar.gz'。 当然,需要确保日益增长的归档文件不会导致磁盘空间的溢出。 #### 11. 在创建归档文件时进行验证 "W"选项可以用来在创建归档文件之后进行验证,以下是一个简单例子。 ``` $ tar -cvW -f abc.tar ./new/ ./new/ ./new/cde.txt ./new/subdir/ ./new/subdir/in.txt ./new/newfile.txt ./new/abc.txt Verify ./new/ Verify ./new/cde.txt Verify ./new/subdir/ Verify ./new/subdir/in.txt Verify ./new/newfile.txt Verify ./new/abc.txt ``` 需要注意的是验证动作不能在压缩过的归档文件上进行,只能在非压缩的tar归档文件上执行。 这次就先到此为止,可以通过“man tar”命令来查看tar命令的的手册。 --- via: <http://www.binarytides.com/linux-tar-command/> 作者:[Silver Moon](https://plus.google.com/117145272367995638274/posts) 译者:[theo-l](https://github.com/theo-l) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,173
2015年你可以购买的四款基于Linux的迷你PC
http://itsfoss.com/4-linux-based-mini-pc-buy-2015/
2015-04-01T13:11:00
[ "PC", "Linux" ]
https://linux.cn/article-5173-1.html
![](/data/attachment/album/201504/01/131113o0z3cq8c2miczmct.jpg) 在我看来迷你PC将在不久的将来会替代传统桌面电脑。传统桌面的有一个像吹风机那样占据大量空间的风扇。迷你PC,在另一方面说很小巧和紧凑。通常是4″或者5″大小,可以轻易地放在桌子上。 不仅如此,这些迷你PC的无风扇设计是一个优点。当然,你可以购买无风扇的常规电脑,但是空间占用仍然是一个问题。对我个人来说,我觉得迷你PC外观上看着很可爱。如果你不是一个游戏玩家也不想买新的桌面PC,我强烈建议你**购买一款基于Linux的迷你PC**。 如果你考虑我的建议,那么你或许想知道该买哪款。不要担心,这篇文章我们会介绍**2015年你可以购买的四款基于Linux的迷你PC**。 ### 基于Linux的迷你PC 需要注意的是,这其中的一些PC可能还不能下单。它们中有些还刚刚公布,在不久的将来才会面向公众出售。 #### 1. System76出品的Meerkat ![](/data/attachment/album/201504/01/131114wu8fvszl0y6uif0i.jpg) [System76](https://system76.com/) 是一家仅出品基于Ubuntu电脑、笔记本、服务器的电脑生产商。[System76在上周公布了一款基于Ubuntu的迷你PC](http://itsfoss.com/system76-unveils-ubuntu-based-mini-pc-meerkat/)。让我看一下它的规格: **规格** * Intel第五代处理器,共有两种选择 i3-5010U 和 i5-5250U * 最高2TB存储 (M.2 SATA SSD) * 16 GB DDR3 内存 * i3和i5处理器下相应的Intel HD 5500 和 Intel HD 6000显卡 * 4″ x 4″ 大小 * WiFi * 1 Gb 网卡 * 2个USB 3.0端口 **价格** 在$500之内(还没确定)。 **发售日期** 美国地区在2015年3月底 #### 2.Compulab出品的Mintbox Mini ![](/data/attachment/album/201504/01/131114zd131mdgzffc9ghm.jpg) [Compulab](http://www.compulab.co.il/)将它基于Linux Mint的期间PC设备压缩,从Mintbox变为[Mintbox Mini](http://itsfoss.com/mintbox-mini-compact-linux-mint-powered-pc-unveiled/)。这个紧凑的版本大小在4″左右。更多的细节如下: **规格** * AMD A4-6400T 处理器 * Radeon R3 显卡 * 4 GB 内存 * 64 GB SSD * 2个USB 3.0端口, 3个USB 2.0端口 * 2个HDMI输出端 * 802.11 b/g/n Wifi * 千兆网卡 * MicroSD读卡器 **价格** $300左右起售 **发售日期** 2015年第二季度 #### 3. Compulab出品的Utilite2 ![](/data/attachment/album/201504/01/131115qighyiyv55bivycy.jpg) Compulab并不仅仅被Linux Mint所限制。它在去年12月公布了一款运行Ubuntu的ARM桌面PC。大小是3.4″x2.3″,[Utilite2](http://www.compulab.co.il/utilite-computer/web/utilite2-overview)有最适合的性价比。 **规格** * 高通Snapdragon 600 (APQ8064) 四核 CPU 1.7GHz * 2GB 内存, 可选32 GB的eMMC mSATA 存储 * 高通 Adreno™ GPU显卡 * 1080p 视频回放和捕捉 * 双天线 WiFi 802.11 和 Bluetooth 4.0 * 千兆网卡, 4个USB2端口和USB OTG * 蜂窝调制解调器支持 **价格** 常规版售价$192、带硬盘售价$229。运费另付。 **发售日期** 现在就可购买。运送将花费4周。 #### 4. Think Penguin出品的Penguin Pocket Wee ![](/data/attachment/album/201504/01/131116ofnax2wxf1m3a3uo.jpg) [Think Penguin](https://www.thinkpenguin.com/)是一家开源硬件生产商。在迷你PC领域,它提供了[Penguin Pocket Wee](https://www.thinkpenguin.com/gnu-linux/penguin-pocket-wee-gnu-linux-desktop)。大小是4.6″x 4.4″x 1.4″ ,, Penguin Pocket Wee为你提供了大量的配置。你可以选择处理器、存储、网卡等。你可以选择购买预装你喜欢的Linux发行版,默认系统是Ubuntu。 下面是默认的配置: * Intel Core i3 或者 i5处理器,最高支持1080p视频 * 最高扩展至 16GB 的 DDR3内存 * Intel HD 显卡 * Wireless N * 最大250GB的SSD * 4个USB 3.0接口 * Intel 10/100/1000 千兆网卡 **价格** 基础版本$499起售,根据你选择的配置最高价格是$1000。 **发售日期** 现在就可下订单。该公司在美国和英国也有办公地点,所以应也可以运送到南美和欧洲。 ### 你会选哪种? 我故意没有介绍[Raspberry Pi 2](http://itsfoss.com/raspberry-pi-2-specs/)或者其他Linux微电脑如[Intel的电脑棒](http://itsfoss.com/intels-compute-stick/)。原因是我不认为这些微电脑属于迷你PC的范畴。 你怎么看?你想用迷你PC代替你的桌面PC么?是不是还有我没有在**基于Linux的最好的迷你PC**列表里列出的PC?在评论区分享你们的观点吧。 --- via: <http://itsfoss.com/4-linux-based-mini-pc-buy-2015/> 作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[geekpi](https://github.com/geekpi) 校对:[Caroline](https://github.com/carolinewuyan) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,176
Linux 上从 MySQL 迁移到 MariaDB 的简单步骤
http://linoxide.com/linux-how-to/migrate-mysql-mariadb-linux/
2015-04-02T07:48:00
[ "mysql", "mariadb" ]
/article-5176-1.html
大家好!这是一篇介绍如何在服务器或个人电脑上从MySQL迁移到MariaDB的教程。也许你会问为什么我们要将数据库管理从MySQL迁移到MariaDB。往下看我们告诉你为什么这样做。 ### 为什么要用MariaDB来代替MySQL MariaDB是MySQL社区开发的分支,也是一个增强型的替代品。它由MySQL前开发者们带头组织的基金会开发,使用起来和MySQL完全一样。自从Oracle买下了MySQL,它就不再自由开源了,但是 **MariaDB仍然自由开源**。一些如谷歌、维基、LinkedIn、Mozilla等的顶级的网站已经迁移到MariaDB了。它的优势在哪里: * 向后兼容MySQL * 永远开源 * 由MySQL缔造者的维护 * 更尖端的功能 * 更多的存储引擎 * 大型的网站已经转向MariaDB 现在,让我们迁移到MariaDB吧! ![](/data/attachment/album/201504/01/225129zqnyq4nxyezlon8v.jpg) 让我们创建一个叫**linoxidedb**的**用于测试的**示例数据库。 使用以下命令用root账户登陆MySQL: ``` $ mysql -u root -p ``` 输入mysql 的 root 用户密码后,你将进入**mysql的命令行** **创建测试数据库:** 在mysql命令行输入以下命令以创建测试数据库。 ``` mysql> create database linoxidedb; ``` 查看可用的数据库,输入以下命令: ``` mysql> show databases; ``` ![creating test databases](/data/attachment/album/201504/01/225439e5akebzc3xm002va.png) 如你所见,算上刚刚新建的linoxidedb我们一共有5个数据库。 ``` mysql> quit ``` 现在,我们就将刚创建的数据库从MySQL迁移到MariaDB。 注:使用CentOS这类基于fedora的linux发行版没有必要参考这篇教程,因为它们在安装MariaDB时会自动代替MySQL,无需备份现有的数据库,你只需要更新mysql就可以得到mariadb。 ### 1. 备份现有的数据库 我们第一个重要的步骤就是备份现有的数据库。我们在**终端(不是MySQL命令行)**里输入如下命令来完成备份。 ``` $ mysqldump --all-databases --user=root --password --master-data > backupdatabase.sql ``` 哇哦!我们遇到了点麻烦。别担心我们可以搞定。 ``` $ mysqldump: Error: Binlogging on server not active ``` ![](/data/attachment/album/201504/01/225441l76w8nhqt3q3g0n0.png) *mysqldump error* 为了修复这个错误,我们需要对**my.cnf**文件做一些小改动。 编辑my.cnf文件: ``` $ sudo nano /etc/mysql/my.cnf ``` 在[mysqld]部分添加如下参数。 **log-bin=mysql-bin** ![configuring my.cnf](/data/attachment/album/201504/01/225444ljqlxtox9wtbtqho.png) 好了,在保存并关闭文件后,我们需要重启一下mysql服务。运行以下命令重启: ``` $ sudo /etc/init.d/mysql restart ``` 现在,重新运行mysqldump命令来备份所有的数据库。 ``` $ mysqldump --all-databases --user=root --password --master-data > backupdatabase.sql ``` ![](/data/attachment/album/201504/01/225446zquhr7m6lu6h5h7w.png) *dumping databases* 上面的命令将会备份所有的数据库,把它们存储在当前目录下的**backupdatabase.sql**文件中。 ### 2. 卸载MySQL 首先,我们得把**my.cnf文件挪到安全的地方去**。 **注**:在你卸载MySQL包的时候不会自动删除my.cnf文件,我们这样做只是以防万一。在MariaDB安装时,它会询问我们是保持现存的my.cnf文件,还是使用包中自带的版本(即新my.cnf文件)。 在shell或终端中输入如下命令来备份my.cnf文件: ``` $ sudo cp /etc/mysql/my.cnf my.cnf.bak ``` 运行命令来终止mysql服务: ``` $ sudo /etc/init.d/mysql stop ``` 然后移除mysql包: ``` $ sudo apt-get remove mysql-server mysql-client ``` ![uninstalling mysql](/data/attachment/album/201504/01/225449bxsrrrvxealujloj.png) ### 3. 安装MariaDB 这是在Ubuntu系统中安装MariaDB的命令: ``` $ sudo apt-get install software-properties-common $ sudo apt-key adv --recv-keys --keyserver hkp://keyserver.ubuntu.com:80 0xcbcb082a1bb943db # sudo add-apt-repository 'deb http://mirror.mephi.ru/mariadb/repo/5.5/ubuntu trusty main' ``` ![adding mariadb repo](/data/attachment/album/201504/01/225451et4d14hn3tnytk66.png) 键值导入并且添加完仓库后,你就可以用以下命令安装MariaDB了: ``` $ sudo apt-get update $ sudo apt-get install mariadb-server ``` ![installing mariadb](/data/attachment/album/201504/01/225455zzw7g0flpav7a30a.png) ![my.conf configuration prompt](/data/attachment/album/201504/01/225458udjdi0nojd0ouniq.png) 我们应该还没忘记在MariaDB安装时,它会问你是使用现有的my.cnf文件,还是包中自带的版本。你可以使用以前的my.cnf也可以用包中自带的。即使你想直接使用新的my.cnf文件,你依然可以晚点时候将以前的备份内容还原进去(别忘了我们已经将它复制到安全的地方了)。所以,我们直接选择了默认的选项“N”。如果需要安装其他版本,请参考[MariaDB官方仓库](https://downloads.mariadb.org/mariadb/repositories/#mirror=mephi)。 ### 4. 恢复配置文件 想要将my.cnf.bak中的内容恢复到my.cnf,在终端中输入以下命令。由于my.cnf.bak文件在当前目录下,所以我们只要简单的执行以下命令即可: ``` $ sudo cp my.cnf.bak /etc/mysql/my.cnf ``` ### 5. 导入数据库 最后,让我们把我们之前创建的数据库导入吧!运行一下命令即可完成导入。 ``` $ mysql -u root -p < backupdatabase.sql ``` 就这样,我们已成功将之前的数据库导入了进来。 来,让我们登录一下mysql命令行,检查一下数据库是否真的已经导入了: ``` $ mysql -u root -p ``` ![importing database](/data/attachment/album/201504/01/225503kd7vx7y4b8szk0b0.png) 为了检查数据库是否被迁移到MariaDB,请在MariaDB命令行中输入“**show databases**;”不用输入(“”),如下: ``` mariaDB> show databases; ``` ![mysql to mariadb database migrated](/data/attachment/album/201504/01/225505a3zt9ta2kkai3ztq.png) 如你所见,linoxidedb及所有的数据库都已经成功的被迁移了。 ### 总结 最后,我们已经成功地从MySQL迁移到了MariaDB数据库管理系统。MariaDB比MySQL好,虽然在性能方面MySQL还是比它更快,但是MariaDB的优点在于它额外的特性与支持的许可证。这能够确保它自由开源(FOSS),并永久自由开源,相比之下MySQL还有许多额外的插件,有些不能自由使用代码、有些没有公开的开发进程、有些在不久的将来会变的不再自由开源。如果你有任何的问题、评论、反馈给我们,不要犹豫直接在评论区留下你的看法。谢谢观看本教程,希望你能喜欢MariaDB。 --- via: <http://linoxide.com/linux-how-to/migrate-mysql-mariadb-linux/> 作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[martin2011qi](https://github.com/martin2011qi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/migrate-mysql-mariadb-linux/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c4d30>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,177
在Ubuntu 14.04 中修复无法清空回收站的问题
http://itsfoss.com/fix-empty-trash-ubuntu/
2015-04-02T08:03:00
[ "Ubuntu", "回收站" ]
https://linux.cn/article-5177-1.html
![](/data/attachment/album/201504/01/230411oiqle0gespqqszp0.jpg) ### 问题 **我遇到了无法在Ubuntu 14.04中清空回收站的问题**。我右键回收站图标并选择清空回收站,就像我一直做的那样。我看到进度条显示删除文件中过了一段时间。但是它停止了,并且Nautilus文件管理也停止了。我不得不在终端中停止了它。 但是这很痛苦因为文件还在垃圾箱中。并且我反复尝试清空后窗口都冻结了。 ### 方案 老实说,我不知道什么导致了这个问题。但是我有一个解决方案如果你在Ubuntu 14.04或者14.10遇到这个问题的话。 打开终端并使用下面的命令: ``` sudo rm -rf ~/.local/share/Trash/* ``` 这里注意你的输入。你使用超级管理员权限来运行删除命令。我相信你不会删除其他文件或者目录。 上面的命令会删除回收站目录下的所有文件。换句话说,这是用命令清空垃圾箱。使用完上面的命令后,你会看到垃圾箱已经清空了。如果你清空了所有文件,你不应该在看到Nautilus崩溃的问题了。 ### 对你有用么? 我希望这篇贴士对你有用,今后你也不会在Ubuntu或者其他发行版中再遇到相同的问题。如果你遇到任何问题请让我知道。 --- via: <http://itsfoss.com/fix-empty-trash-ubuntu/> 作者:[Abhishek](http://itsfoss.com/author/abhishek/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,178
Nmap : 不是只能用于做坏事!
http://www.linuxjournal.com/content/nmap%E2%80%94not-just-evil
2015-04-02T10:14:00
[ "nmap" ]
https://linux.cn/article-5178-1.html
如果SSH是系统管理员世界的"瑞士军刀"的话,那么Nmap就是一盒炸药。炸药很容易被误用然后将你的双脚崩掉,但是也是一个很有威力的工具,能够胜任一些看似无法完成的任务。 ![](/data/attachment/album/201504/01/231703h4ccm4zra0jokjcz.jpg) 大多数人想到Nmap时,他们想到的是扫描服务器,查找开放端口来实施攻击。然而,在过去的这些年中,这样的超能力在当你管理服务器或计算机遇到问题时也是非常的有用。无论是你试图找出在你的网络上有哪些类型的服务器使用了指定的IP地址,或者尝试锁定一个新的NAS设备,以及扫描网络等,都会非常有用。 下图显示了我的QNAP NAS的网络扫描结果。我使用该设备的唯一目的是为了NFS和SMB文件共享,但是你可以看到,它包含了一大堆大开大敞的端口。如果没有Nmap,很难发现机器到底在运行着什么玩意儿。 ![](/data/attachment/album/201504/01/231707wtmzs8omjjxnlbds.jpg) *网络扫描* 另外一个可能你没想到的用途是用它来扫描一个网络。你甚至根本不需要root的访问权限,而且你也可以非常容易地来指定你想要扫描的网络地址块,例如输入: ``` nmap 192.168.1.0/24 ``` 上述命令会扫描我的局域网中全部的254个可用的IP地址,让我可以知道那个是可以Ping的,以及那些端口是开放的。如果你刚刚在网络上添加一个新的硬件,但是不知道它通过DHCP获取的IP地址是什么,那么此时Nmap就是无价之宝。例如,上述命令在我的网络中揭示了这个问题: ``` Nmap scan report for TIVO-8480001903CCDDB.brainofshawn.com (192.168.1.220) Host is up (0.0083s latency). Not shown: 995 filtered ports PORT STATE SERVICE 80/tcp open http 443/tcp open https 2190/tcp open tivoconnect 2191/tcp open tvbus 9080/tcp closed glrpc ``` 它不仅显示了新的Tivo 设备,而且还告诉我那些端口是开放的。由于它的可靠性、可用性以及“黑边帽子”的能力,Nmap获得了本月的 <<编辑推荐>>奖。这不是一个新的程序,但是如果你是一个linux用户的话,你应该玩玩它。 --- via: <http://www.linuxjournal.com/content/nmap%E2%80%94not-just-evil> 作者:[Shawn Powers](http://www.linuxjournal.com/users/shawn-powers) 译者:[theo-l](https://github.com/theo-l) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,179
Fedora GNOME 的常用快捷键
http://linux.about.com/od/howtos/tp/Fedora-GNOME-Keyboard-Shortcuts.htm
2015-04-02T13:00:00
[ "gnome", "快捷键" ]
https://linux.cn/article-5179-1.html
在Fedora中,为了获得最好的[GNOME桌面](https://www.gnome.org/gnome-3/)体验,你需要了解并掌握一些驾驭系统的快捷键。 这篇文章将列举我们日常使用中使用频率最高的快捷键。 ![](/data/attachment/album/201504/02/000439ieqnf40nfhu1elnu.jpg) #### 1. Super键 ![GNOME Keyboard Shortcuts - The Super Key. ](/data/attachment/album/201504/02/000547mjhs1jh6941x1869.png) *GNOME 快捷键 - super键* [“super”键](http://en.wikipedia.org/wiki/Super_key_%28keyboard_button%29)是如今驾驭操作系统的好朋友。 在传统的笔记本电脑中“super”键坐落于最后一列就在“alt”键的旁边(就是徽标键)。 当你按下“super”键后“activities”总览图就会出现,你就能看见所有打开应用的缩略图。 同时按下 "ALT" 和"F1"一样可以达到这样的效果。 ### 2. 如何快速执行一条命令 ![GNOME Run Command.](/data/attachment/album/201504/02/000547qk78hs78g6l6v8lr.png) *GNOME 运行某命令* 如果你需要快速的执行一条指令,你可以按下"ALT"+"F2",这样就会出现指令运行对话框了。 现在你就可以在窗口中输入你想要执行的指令了,回车执行。 ### 3. 快速切换到另一个打开的应用 ![TAB Through Applications.](/data/attachment/album/201504/02/000548uzm1lmgfgrewg012.png) *使用TAB在应用中切换* 就像在微软的Windows下一样你可以使用"ALT"和"TAB" 的组合键在应用程序之间切换。 在一些键盘上tab键上画的是这样的**|<- ->|**,而有些则是简单的"TAB"字母。 GNOME应用切换器随着你的切换,显示简单的图标和应用的名字。 如果你按下"shift"+"tab"将以反序切换应用。 ### 4. 在同一应用中快速切换不同的窗口 ![Switch Windows In The Same Application.](/data/attachment/album/201504/02/000548iscjokjejdhzqowe.png) *在应用中切换不同窗口* 如果你像我一样经常打开五六个Firefox。 你已经知道通过"Alt"+"Tab"实现应用间的切换。有两种方法可以在同一个应用中所有打开的窗口中切换。 第一种是按"Alt"+"Tab"让选框停留在你所要切换窗口的应用图标上。短暂的停留等到下拉窗口出现你就能用鼠标选择窗口了。 第二种也是比较推荐的方式是按"Alt"+"Tab"让选框停留在你所要切换窗口的应用图标上,然后按"super"+"`"在此应用打开的窗口间切换。 **注释:"`"就是tab键上面的那个键。无论你使用的那种键盘排布,用于切换的键一直都是tab上面的那个键,所以也有可能不是"`"键。** 如果你的手很灵活(或者是我称之为忍者手的)那你也可以同时按"shift", "`"和"super"键来反向切换窗口。 ### 5. 切换键盘焦点 ![Switch Keyboard Focus.](/data/attachment/album/201504/02/000549omw7cu73319r7lr8.png) *切换键盘焦点* 这个键盘快捷键并不是必须掌握的,但是还是最好掌握。 如若你想将输入的焦点放到搜索栏或者一个应用窗口上,你可以同时按下"CTRL", "ALT"和"TAB",这样就会出现一个让你选择切换区域的列表。 然后就可以按方向键做出选择了。 ### 6. 显示所有应用程序列表 ![Show All Applications.](/data/attachment/album/201504/02/000550u77gzxkh8vxkk7wx.png) *显示所有应用程序* 如果恰巧最后一个应用就是你想要找的,那么这样做真的会帮你省很多时间。 按"super"和"A"键来快速切换到这个包含你系统上所有应用的列表上。 ### 7. 切换工作区 ![Switch Workspaces.](/data/attachment/album/201504/02/000550fvze66n7uvk99uzg.png) *切换工作区* 如果你已经使用linux有一段时间了,那么这种[多工作区切换](http://linux.about.com/library/gnome/blgnome2n4.htm)的工作方式一定深得你心了吧。 举个例子,你在第一个工作区里做开发,第二个之中浏览网页,而把你邮件的客户端开在第三个工作区中。 工作区切换你可以使用"super"+"Page Up" (向上翻页)键朝一个方向切,也可以按"super"+"Page Down" (向下翻页)键朝另一个方向切。 还有一个比较麻烦的备选方案就是按"super"显示打开的应用,然后在屏幕的右侧选择你所要切换的工作区。 ### 8. 将一些项目移至一个新的工作区 ![Move Application To Another Workspace.](/data/attachment/album/201504/02/000551tb3nk33u3tl7v5ub.png) *将应用移至另一个工作区* 如果这个工作区已经被搞得杂乱无章了,没准你会想将手头的应用转到一个全新的工作区,请按组合键"super", "shift"和"page up"或"super", "shift"和"page down" 键。 备选方案按"super"键,然后在应用列表中找到你想要移动的应用拖到屏幕右侧的工作区。 ### 9. 显示信息托盘 ![Show The Message Tray.](/data/attachment/album/201504/02/000551gnzsuh9v987ssav9.png) *显示信息托盘* 消息托盘会提供一个通知列表。按"super"+"M"呼出消息托盘。 备选方法是鼠标移动到屏幕右下角。 ### 10. 锁屏 ![Lock The Screen.](/data/attachment/album/201504/02/000552wv8mh886h8vn8d6m.png) *锁屏* 想要休息一会喝杯咖啡?不想误触键盘? 无论何时只要离开你的电脑应该习惯性的按下"super"+"L"锁屏。 解锁方法是从屏幕的下方向上拽,输入密码即可。 ### 11. 关机 ![Control Alt Delete Within Fedora.](/data/attachment/album/201504/02/000553ub3x683u1zxh7x35.png) *Fedora中Control+Alt+Delete* 如果你曾是windows的用户,你一定记得著名的三指快捷操作CTRL+ALT+DELETE。 如果在键盘上同时按下CTRL+ALT+DELETE,Fedora就会弹出一则消息,提示你的电脑将在60秒后关闭。 ### 12. 编辑快捷键 在各类操作系统中编辑快捷键都大同小异。 * CTRL + A - 全选 * CTRL + X - 剪切 * CTRL + C - 复制 * CTRL + V - 粘贴 * CTRL + Z - 撤销 ### 13. 截屏 和编辑快捷键一样,截屏键也就那么基础的几个。 * PRTSC (Print Screen) - 截屏 * Alt + PRTSC - 当前窗口截图 * Shift + PRTSC - 所选区域截图 这里还有一个比较特殊的按键,主要是为了大家可以更容易的制作视频教程的。 * CTRL + ALT + SHIFT + R - 录制视频 * CTRL + ALT + SHIFT + R 第二次按下时 - 停止录制 [录制的内容](http://en.wikipedia.org/wiki/Screencast)将以[webm](http://en.wikipedia.org/wiki/WebM)格式保存于当前用户家目录下的录像文件夹中。 ### 14. 并排显示窗口 ![Put Windows Side By Side.](/data/attachment/album/201504/02/000553m4jwoxwkr500vov9.png) *并排显示窗口* 你可以将一个窗口靠左占满左半屏,另一个窗口靠右占满右半屏,让两个窗口并排显示。 也可以按"Super"+"←"(左箭头)让当前应用占满左半屏。按"Super"+"→"(右箭头)让当前应用占满右半屏。 ### 15. 窗口的最大化,最小化和恢复 双击标题栏可以最大化窗口。 最大化后的窗口再双击就会还原至原大小。 右键菜单选择"最小化"就可以最小化了。 ### 16. 总结 ![GNOME Keyboard Shortcut Cheat Sheet. ](/data/attachment/album/201504/02/000555cwzc3iczaia313p3.png) *GNOME快捷键速查表* 我做了一份快捷键速查表,你可以打印出来贴在墙上,这样一定能够更快上手。 当你掌握了这些快捷键后,你一定会感慨这个桌面环境使用起来是如此的顺手。 * [戳这里查看Fedora GNOME桌面的速查表](https://s-media-cache-ak0.pinimg.com/originals/d5/f4/a4/d5f4a42c0940fae6653ee9a17294d450.jpg) * [查看GNOME WIKI请戳这里](http://en.wikipedia.org/wiki/GNOME) * [另外的一个GNOME WIKI](https://wiki.gnome.org/) * [GNOME 3备用速查表](https://wiki.gnome.org/Gnome3CheatSheet) --- via: <http://linux.about.com/od/howtos/tp/Fedora-GNOME-Keyboard-Shortcuts.htm> 作者:[Gary Newell](http://linux.about.com/bio/Gary-Newell-132058.htm) 译者:[martin2011qi](https://github.com/martin2011qi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,185
C语言数据类型是如何被大多数计算机系统所支持?
http://stackoverflow.com/questions/27977522/how-are-c-data-types-supported-directly-by-most-computers/27977605#27977605
2015-04-03T07:19:00
[ "C语言", "数据类型" ]
https://linux.cn/article-5185-1.html
### 问题: 在读K&R版的*The C Programming Language*一书时,我在[介绍,第3页]看到这样一条说明: > > **因为C语言提供的数据类型和控制结构可以直接被大部分计算机系统所支持,所以在实现自包含程序时所需要的运行库文件一般很小。** > > > 这段黑体说明了什么?能否找到一个例子来说明C语言中的某种数据类型或控制结构不被某种计算机系统直接支持呢? ![](/data/attachment/album/201504/02/220038aewq0e5z640nlwl0.jpg) ### 回答: 事实上,C语言中确实有不被直接支持的数据类型。 在许多嵌入式系统中,硬件上并没有浮点运算单元。因此,如果你写出下面的代码: ``` float x = 1.0f, y = 2.0f; return x + y; ``` 可能会被转化成下面这种形式: ``` unsigned x = 0x3f800000, y = 0x40000000; return _float_add(x, y); ``` 然后编译器或标准库必须提供'*float*add()'的具体实现,这会占用嵌入式系统的内存空间。依此去计算代码在某个微型系统(译者注:也就是指微型嵌入式系统)的实际字节数,也会发现有所增加。 另一个常见的例子是64位整型数(C语言标准中'long long'类型是1999年之后才出现的),这种类型在32位系统上也不能直接使用。古董级的SPARC系统则不支持整型乘法,所以在运行时必须提供乘法的实现。当然,还有一些其它例子。 #### 其它语言 相比起来,其它编程语言有更加复杂的基本类型。 比如,Lisp中的symbol需要大量的运行时实现支持,就像Lua中的table、Python中的string、Fortran中的array,等等。在C语言中等价的类型通常要么不属于标准库(C语言没有标准symbol或table),要么更加简单,而且并不需要那么多的运行时支持(C语言中的array基本上就是指针,以NULL结尾的字符串实现起来也很简单)。 #### 控制结构 异常处理是C语言中没有的一种控制结构。非局部的退出只有'setjmp()'和'longjmp()'两种,只能提供保存和恢复某些部分的处理器状态。相比之下,C++运行时环境必须先遍历函数调用栈,然后调用析构函数和异常处理函数。 --- via:[stackoverflow](http://stackoverflow.com/questions/27977522/how-are-c-data-types-supported-directly-by-most-computers/27977605#27977605) 作者:[Dietrich Epp](http://stackoverflow.com/users/82294/dietrich-epp) 译者:[KayGuoWhu](https://github.com/KayGuoWhu) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,186
如何使用btsync通过网络实现计算机间的文件共享
http://xmodulo.com/share-files-between-computers-over-network.html
2015-04-03T08:03:00
[ "btsync", "共享" ]
https://linux.cn/article-5186-1.html
如果你是那种使用各式设备在网上工作的人,我相信你肯定需要一个在不同设备间同步文件及目录的方法,至少是非常渴望有这种功能。 BitTorrent Sync简称btsync,是一个基于BitTorrent(著名P2P文件分享协议)的免费跨平台同步工具。与传统BitTorrent客户端不同的是,btsync可以在不同操作系统及设备之间加密数据传输和基于自动生成的密钥来授予访问共享文件的权限。 更具体点,当你想要通过btsync共享一些文件或文件夹,相应的读/写密钥(所谓的密码)就创建好了。这些密钥可以通过HTTPS链接,电子邮件,二维码等在不同的设备间共享传递。一旦两台设备通过一个密钥配对成功,其所对应的内容将会直接在其间同步。如果没有事先设置,传输将不会有文件大小和速度的限制。你可以在btsync中创建账号,这样你可以通过 web 界面来创建和管理通过网络分享的密钥和文件。 ![](/data/attachment/album/201504/03/000817ypzevnwoxixoxlx7.png) BitTorrent Sync可以在许多的操作系统上运行,包括Linux,MacOS X,Windows,在 [Android](https://play.google.com/store/apps/details?id=com.bittorrent.sync)和[iOS](https://itunes.apple.com/us/app/bittorrent-sync/id665156116)上也可以使用。在这里,我们将教你在Linux环境(一台家用服务器)与Windows环境(一台笔记本电脑)之间如何使用BitTorrent Sync来同步文件。 ### Linux下安装btsync BitTorrent Sync可以在[项目主页](http://www.getsync.com/)直接下载。由于Windows版本的BitTorrent Syn安装起来十分简单,所以我们假设笔记本上已经安装了。我们把焦点放到Linux服务器上的安装和配置。 在下载页面中选择你的系统架构,右键相应链接,复制连接地址(或者类似的功能,不同浏览器可能不同),将链接粘贴到在终端中用wget下载,如下: **64位Linux:** ``` # wget http://download.getsyncapp.com/endpoint/btsync/os/linux-x64/track/stable ``` **32位Linux:** ``` # wget http://download.getsyncapp.com/endpoint/btsync/os/linux-i386/track/stable ``` ![](/data/attachment/album/201504/03/000822dz8azutu0aiud787.jpg) 下载完成后,把包中内容解压到你专门创建的目录中,为了完成这些: ``` # cd /usr/local/bin # mkdir btsync # tar xzf stable -C btsync ``` ![](/data/attachment/album/201504/03/000829pq2pkqeqzhnprxrp.jpg) 现在你可以选择将/usr/local/bin/btsync添加到环境变量PATH中去。 ``` export PATH=$PATH:/usr/local/bin/btsync ``` 或者在该文件夹中运行btsync的二进制文件。我们推荐使用第一种方式,虽需要少量的输入但更容易记忆。 ### 配置btsync btsync带有一个内置的网络服务器,用作其管理接口。想要使用这个接口你需要创建一个配置文件。你可以使用以下命令来创建: ``` # btsync --dump-sample-config > btsync.config ``` 然后使用你最常用的编辑器对btsync.config文件的(webui部分)作以下修改 ``` "listen" : "0.0.0.0:8888", "login" : "yourusername", "password" : "yourpassword" ``` 你可以选择任何用户名和密码。 ![](/data/attachment/album/201504/03/000830nbmu1ztzcbzcct5t.jpg) 如果你将来想要优化一下它的配置,可以看一下 /usr/local/bin/btsync 目录下的 README 文件,不过现在我们先继续下面的步骤。 ### 第一次运行btsync 作为一个系统的最高执行者我们需要依赖日志文件!所以在我们启动btsync之前,我们将先为btsync创建一个日志文件。 ``` # touch /var/log/btsync.log ``` 最后,让我们启动btsync: ``` # btsync --config /usr/local/bin/btsync/btsync.config --log /var/log/btsync.log ``` ![](/data/attachment/album/201504/03/000831hvv4l92llzzvlxg5.jpg) 现在在你的浏览器中输入正在运行的btsync所监听的服务器IP地址和端口(我这是192.168.0.15:8888),同意其隐私政策,条款和最终用户许可协议: ![](/data/attachment/album/201504/03/000832gudugmxxuqu0xn4x.jpg) 这样页面就会转到你安装的btsync主页: ![](/data/attachment/album/201504/03/000833reerknn9qnenqir9.jpg) 点击添加文件夹并在你的文件系统中选择一个你想要分享的目录,在我们的例子中,我们使用的是/btsync: ![](/data/attachment/album/201504/03/000835kjgs3rcjbgdrrro6.jpg) 现在这样就够了。在运行接下来的步骤之前,请先在Windows主机(或你想使用的其他Linux设备)上安装BitTorrent Sync。 ### btsync分享文件 这个[视频](https://youtu.be/f7kLM0lAqF4)(需要翻墙)展示了如何在安装Windows8的电脑[192.168.0.106]上分享现有的文件夹。在添加好想要同步的文件夹后,你会得到它的密钥,通过“Enter a key or link”菜单(上面的图已经展示过了)添加到你安装到的Linux机器上,并开始同步。 现在用别的设备试试吧;找一个想要分享的文件夹或是一些文件,并通过Linux服务器的网络接口将密钥导入到你安装的“中央”btsync中。 ### 以常规用户开机自动运行btsync 你们可能注意到了,视频中在同步文件时是使用'root'组的用户创建/btsync目录的。那是因为我们使用超级用户手动启动BitTorrent Sync的原因。在通常情况下,你会希望它开机自动使用无权限用户(www\_data或是专门为此创建的账户,例如btsync)启动。 所以,我们创建了一个叫做btsync的用户,并在/etc/rc.local文件(exit 0 这一行前)添加如下字段: ``` sudo -u btsync /usr/local/bin/btsync/btsync --config /usr/local/bin/btsync/btsync.config --log /var/log/btsync.log ``` 最后,创建pid文件: ``` # touch /usr/local/bin/btsync/.sync/sync.pid ``` 并递归更改 /usr/local/bin/btsync的所属用户: ``` # chown -R btsync:root /usr/local/bin/btsync ``` 现在重启试试,看看btsync是否正在由预期中的用户运行: ![](/data/attachment/album/201504/03/000836ry06x0wdwdf0gvxg.jpg) 基于你选择的发行版不同,你可能找到不同的方式来开机自启动btsync。在本教程中,我选择rc.local的方式是因为它在不同发行版中都可使用。 ### 尾注 如你所见,BitTorrent Sync对你而言几乎就像一个无服务器的Dropbox。我说“几乎”的原因是:当你在局域网内同步数据时,同步在两个设备之间直接进行。然而如果你想要跨网段同步数据,并且你的设备可能要穿过防火墙的限制来配对,那就只能通过一个提供BitTorrent的第三方中继服务器来完成同步传输。虽然声称传输经过 [AES加密](http://www.getsync.com/tech-specs),你还是可能会遇到不想发生的状况。为了你的隐私着想,务必在你共享的每个文件夹中关掉中继/跟踪选项。 希望这些对你有用!分享愉快! --- via: <http://xmodulo.com/share-files-between-computers-over-network.html> 作者:[Gabriel Cánepa](http://xmodulo.com/author/gabriel) 译者:[martin2011qi](https://github.com/martin2011qi) 校对:[校对者ID](https://github.com/%E6%A0%A1%E5%AF%B9%E8%80%85ID) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,198
如何在Ubuntu 14.04上安装轻量级web服务器Cherokee
http://linoxide.com/ubuntu-how-to/install-cherokee-lightweight-web-server-ubuntu-14-04/
2015-04-04T13:01:00
[ "Cherokee", "Web服务器" ]
/article-5198-1.html
**Cherokee** 是一个免费,开源,高性能轻量级的全功能web服务器,支持大部分主流操作系统(Linux、 Mac OS X、 Solaris 和 BSD)。它支持TLS/SSL、FastCGI、 SCGI、 PHP、 uWSGI、 SSI、 CGI、 LDAP、 HTTP代理、 视频流处理、 内容缓存、 流量控制、 虚拟主机、Apache兼容的日志文件,以及负载均衡等功能。 ![](/data/attachment/album/201504/04/131104bzeeg2kyu12lye28.jpg) 今天我们介绍一下怎样在Ubuntu Server 14.04 LTS安装和配置轻量级的web服务器Cherokee,只需要注意修改软件源列表,同样适用于Ubuntu12.04,12.10和13.04。 在Ubuntu Server上逐步安装和配置Cherokee ### 1. 更新Ubuntu软件包索引 首先登陆Ubuntu Server,执行以下命令,更新Ubuntu Server的软件源并安装可用的更新。 ``` sudo apt-get update sudo apt-get upgrade ``` ### 2. 加入 PPA 通过运行以下命令增加Cherokee的PPA ``` sudo add-apt-repository ppa:cherokee-webserver sudo apt-get update ``` 对于运行14.04版本的服务器还需要执行以下步骤 ``` cd /etc/apt/sources.list.d nano cherokee-webserver-ppa-trusty.list ``` 用`deb http://ppa.launchpad.net/cherokee-webserver/ppa/ubuntu saucy main` 替换 `deb http://ppa.launchpad.net/cherokee-webserver/ppa/ubuntu trusty main` **再次运行命令:** ``` sudo apt-get update ``` ### 3. 使用apt-get安装Cherokee 使用如下命令安装Cherokee和SSL模块 ``` sudo apt-get install cherokee cherokee-admin cherokee-doc libcherokee-mod-libssl libcherokee-mod-streaming libcherokee-mod-rrd ``` ### 4. 配置Cherokee 重启Cherokee服务: ``` sudo service cherokee start ``` 使用Cherokee最大的好处就是能通过一个简单易用的web界面 cherokee-admin 来管理所有的配置选项。推荐通过浏览器来管理Cherokee。使用如下命令启动cherokee-admin ``` sudo cherokee-admin ``` **注意: cherokee-admin 会显示用户名,一次性密码和web管理界面地址。** **请记录下这个一次性密码,登录到管理界面时需要它。** 默认情况下,只能通过localhost访问Cherokee-admin,如果需要通过其它网络地址来访问,可以使用‘**-b**’参数。如果不指定任何IP地址,Cherokee-admin会自动监听所有网络端口。然后就可以通过网络访问Cherokee-admin ``` sudo cherokee-admin -b ``` 通过指定IP地址访问Cherokee-admin ``` sudo cherokee-admin -b 192.168.1.102 ``` ### 5. 浏览cherokee-admin面板 在你喜欢的浏览器中输入地址`http://主机名或IP地址:9090/`就可以进入控制面板了。例如我的是[http://127.0.0.1:9090/,在浏览器中显示如下图](http://127.0.0.1:9090/%EF%BC%8C%E5%9C%A8%E6%B5%8F%E8%A7%88%E5%99%A8%E4%B8%AD%E6%98%BE%E7%A4%BA%E5%A6%82%E4%B8%8B%E5%9B%BE) ![cherokee-admin-panel](/data/attachment/album/201504/04/120523oqed94x9idpdwafa.png) 好了,到这里我们已经成功地在Ubuntu Server上安装和配置了Cherokee。 --- via: <http://linoxide.com/ubuntu-how-to/install-cherokee-lightweight-web-server-ubuntu-14-04/> 作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /ubuntu-how-to/install-cherokee-lightweight-web-server-ubuntu-14-04/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c52d0>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,199
如何在CentOS/RHEL中安装基于Web的监控系统 linux-dash
http://www.unixmen.com/install-linux-dash-web-based-monitoring-system-centosrhel/
2015-04-04T15:03:00
[ "linux dash" ]
https://linux.cn/article-5199-1.html
**Linux-dash**是一款为Linux设计的基于web的轻量级监控面板。这个程序会实时显示各种不同的系统属性,比如CPU负载、RAM使用率、磁盘使用率、网速、网络连接、RX/TX带宽、登录用户、运行的进程等等。它不会存储长期的统计。因为它没有后端数据库。 本篇文章将会向你展示如何安装和设置Linux dash,这里所使用的web服务器是**Nginx**. ### 安装 首先我们要启用[EPEL 仓库](http://linux.cn/article-2324-1.html)。 **接下来,我们需要用下面的命令安装nginx。** ``` sudo yum install nginx ``` **安装 php-fpm 组件** ``` sudo yum install git php-common php-fpm ``` 现在我们要在nginx中配置Linux-dash。我们如下创建 /etc/nginx/conf.d/linuxdash.conf。 ``` sudo vim /etc/nginx/conf.d/linuxdash.conf ``` --- ``` server { server_name $domain_name; listen 8080; root /var/www; index index.html index.php; access_log /var/log/nginx/access.log; error_log /var/log/nginx/error.log; location ~* \.(?:xml|ogg|mp3|mp4|ogv|svg|svgz|eot|otf|woff|ttf|css|js|jpg|jpeg|gif|png|ico)$ { try_files $uri =404; expires max; access_log off; add_header Pragma public; add_header Cache-Control "public, must-revalidate, proxy-revalidate"; } location /linux-dash { index index.html index.php; } # PHP-FPM via sockets location ~ \.php(/|$) { fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; fastcgi_split_path_info ^(.+?\.php)(/.*)$; fastcgi_pass unix:/var/run/php-fpm.sock; if (!-f $document_root$fastcgi_script_name) { return 404; } try_files $uri $uri/ /index.php?$args; include fastcgi_params; } } ``` **下一步是配置php-fpm。用编辑器打开/etc/php-fpm.d/www.conf。** ``` sudo vim /etc/php-fpm.d/www.conf ``` **确保设置了如下的“listen”,“user”和“group”字段。你可以保留其它的配置不变。** ``` . . . listen = /var/run/php-fpm.sock user = nginx group = nginx . . . ``` **现在,我们要在/var/www中下载并安装linux-dash。** ``` git clone https://github.com/afaqurk/linux-dash.git sudo cp -r linux-dash/ /var/www/ sudo chown -R nginx:nginx /var/www ``` **接下来,重启 Nginx和php-fpm。** ``` sudo service nginx restart sudo service php-fpm restart ``` **设置nginx和php-fpm开机自动启动。** ``` sudo chkconfig nginx on sudo chkconfig php-fpm on ``` 在本例中,我们使用TCP端口8080配置linux-dash。因此需确保防火墙没有阻止8080 TCP端口。 ### 用linux-dash监控Linux服务器 你现在可以在浏览器中输入**http://<IP地址>:8080/linux-dash/**来访问Linux-dash。 web面板包含了不同的组件,每个都显示独特的系统属性。你可以自定义web面板的外观也可以关闭一些组件。 ![](/data/attachment/album/201504/04/130642w4outnpe50p8210k.png) 美好的一天! 下篇文章中再见。 --- via: <http://www.unixmen.com/install-linux-dash-web-based-monitoring-system-centosrhel/> 作者:[Jijo](http://www.unixmen.com/author/jijo/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,200
想找点激烈的游戏?那就试试这 13 款 Roguelike 游戏吧!
http://www.linuxlinks.com/article/201412031524381/RoguelikeGames.html
2015-04-06T08:25:00
[ "Roguelike", "游戏", "nethack" ]
https://linux.cn/article-5200-1.html
Roguelike 是角色扮演游戏的一个子类。从字面上看,它的意思是 “像 Rogue 的游戏”。Rogue 是一个关于地下城冒险的视频游戏,于 1980 年第一次发行,以极其上瘾而著称。这个游戏的目标是取得深藏于第 26 层的 "Amulet of Yendor",再返回到顶层逃出生天。 Roguelike 的准确定义并不存在,但这类游戏通常具有下面的特点: * 奇幻的叙事背景; * 用程序产生关卡。游戏中的绝大多数场景在开始新的游戏时由游戏自动创建。这样做是为了鼓励玩家不断重玩; * 回合制的地下城探险和战斗; * 随机生成的基于贴片的图形环境; * 随机发生战斗; * 永久死亡 :在游戏中,死亡真的存在,一旦你的角色死了,那就真的结束了; * 高难度。 这篇文章精心挑选了一些可运行在 Linux 平台下的 roguelike 游戏。假如你喜欢激烈、易上瘾的游戏,可以尝试这 13 款游戏。不要因它们原始的画质而退缩,一旦你沉浸其中,你将很快忘记画面的简陋。所有的这些都可以免费下载,并且几乎所有的游戏都是在开源协议下发行的。 ### Dungeon Crawl Stone Soup ![](/data/attachment/album/201504/04/183124a6h6arh02l26yxpy.png) Dungeon Crawl Stone Soup 是一个开源的,单用户角色扮演类的 roguelike 游戏,玩家要在遍布危险而充满敌意的怪兽的地下城中进行探险和寻找宝藏,并在任务中拯救传说中的神秘 Zot 宝珠。 Dungeon Crawl Stone Soup 是 Linley 开发的 Dungeon Crawl 游戏的延续。它是公开开发的,并邀请 Crawl 社区的人员来参与其中。 Dungeon Crawl 有着超棒且深层次的战术游戏环节,创新的魔法和信仰系统,以及数量宏大的和你战斗的怪兽。Crawl 也是最难以攻陷的 roguelike 游戏之一。当你最终在游戏中通关,将胜利宣言张贴在 rec.games.roguelike.misc 时,你才会知道这有多么令人骄傲! 特点包括: * 丰富多彩的、富含深层次战术的 roguelike 游戏; * 手绘地图; * 无数的金库; * 漂亮的界面; * 创新的魔法和信仰系统; * 各种神灵,角色,物品和聪明的怪兽; * 网站: [crawl.develz.org](http://crawl.develz.org/) * 开发者: Stone Soup 开发小组 * 协议: Crawl General Public License * 版本号: 0.15.2 ### Dwarf Fortress ![](/data/attachment/album/201504/04/183127v0p0456e0nmnr0lp.png) Dwarf Fortress 是一个单人魔幻游戏,与 NetHack 类似。你可以在一个随机生成的持久的世界中,控制一个矮人哨兵或一个冒险者。 这个游戏的特色有:三种游戏模式(矮人要塞,冒险者,传说模式),一个独特的随机生成的世界(由地形,野生生物和传奇生物等组成), 阴森的战斗机制以及各种邪恶鱼群。 特点包括: * 在这个世界里,你想玩多久都可以。可以经历许多次游戏,记录历史事件,对更改进行跟踪等; * 当你扮演的矮人在山群中寻找宝藏时,你可以对他们下达命令 + 用各种材料来手工制作珍宝、物品,并可以用贵重金属、宝石等来改进它们; + 通过各种手段保护你自己,防御来自敌对文明的袭击; + 支持贵族,他们会管理你的民众 + 让你的矮人高兴起来,了解他们工作和休闲时的想法; + 不同的 Z 坐标可以使你在多个层级上建造你的堡垒。建立塔台或征服地下深处; + 建立水闸来灌溉作物或用水淹没你的对手; * 扮演一个探险者并进行探索,为荣誉而战或复仇 + 与以前的游戏中的对手相遇; + 在你经过的旅途中营救小城里的人们; + 没有繁琐的情节,只需要探索; + 无缝连接的漫游游戏世界-总共达到 197376 x 197376 平方 -可以在区域地图上更快速地穿行; + 接受小镇或文明社会的领导所委托的任务; + 可以找到你以前的角色,以一个新的角色带上他们来一场新的冒险,或者直接重新激活并使用他们; + 通过 Z 轴使得你可以在各个地下城的不同层级间和结构间平滑的上下移动来和对手战斗; * 战斗模式是通过技巧、身体部位、搏斗、在不同区域间蓄势和躲避,体验流血、疼痛,恶心及其他感受; * 一个动态的天气模型跟踪风,湿度及空气流动,以创造冷暖气流锋面、风、暴风雨雪; * 超过 200 种岩石和矿物类型被引入到了游戏世界,它们被放置在合适的地理环境中; * 通过可更改的文本文件来添加生物,武器,植物,金属和其他对象; * 以 16 色(包括黑色)渲染的扩展 ASCII 字符集,以及 8 种背景颜色(包括黑色); * 网站: [www.bay12games.com/dwarves/](http://www.bay12games.com/dwarves/index.html) * 开发者: Tarn Adams * 协议: 免费软件 * 版本号: 0.40.19 ### Ancient Domains of Mystery ![](/data/attachment/album/201504/04/183129gnog9not3lggaso3.png) Ancient Domains of Mystery (ADOM) 是一个 rogue-like 游戏,从 1994 年至今一直在不断开发。 它是一个包含复杂地下城的单用户游戏。你控制一个用种族、类别、属性、技巧和装备等描述的虚构角色。这个虚构角色正尝试着达到一个特定的目标(参考下面的介绍)并在一个困难的任务中取胜。为了完成任务,你必须在以前没有发现的隧道和地下城中探险,和丑陋的怪兽战斗,解开一系列遗忘的秘密,并找到宝藏。 在游戏期间,你在每次游戏时随机生成的各层地下城中探索。你也可能遇到某个特定的关卡,其中有着特定的挑战或者围绕某个特定主题而生成。 特点包括: * 拥有上百个地点的巨大游戏世界,例如城堡、随机生成的地下城、主题寺庙、墓地、古代遗迹、塔台和其他名胜; * 各种各样的种族(矮人、drakeling、雾精灵、hurthling、兽人、巨魔、ratling 等等)(LCTT注:种族信息可以参考[这里](http://ancardia.wikia.com/wiki/Race) 和丰富的职业(战士、 元素法师、 刺客、 混沌骑士,决斗士等等)带来无限的游戏乐趣; * 上百个怪兽和物品,其中的许多带有随机的增强特性; * 迫使你在对力量的欲望和对诅咒的恐惧之间进行权衡的腐败体系; * 法术、祈祷、思想技艺、炼金术、手工艺和更多; * 多样的任务和分支故事主线; * 许多完全不同的结局,可能改变现实本身。 * 网站: [www.adom.de](http://www.adom.de/) * 开发者: Thomas Biskup * 协议: Postcardware * 版本号: 1.20 Prelease 20 ### Tales of Maj’Eyal (ToME) ![](/data/attachment/album/201504/04/183205sa8m8jxbugiuubou.png) Tales of Maj’Eyal (ToME) (注:中文译名为 马基埃亚尔的传说) 是一个免费、开源的 roguelike 角色扮演游戏,包含特色的战术回合制战役和先进角色构建。它作为运行在 T-Engine 4.0 中的一个模块而被创造。 现在处于王权世纪(Age of Ascendancy),在长达一万年的冲突痛苦和混乱之后,我们所知的世界终于进入了一个相对和平的时期。 “魔法大爆裂(Spellblaze)” 留下的影响已经大为减缓, 大地的伤痕也慢慢地开始愈合。在薪火世纪(Age of Pyre)之后,各个文明也纷纷开始重建家园。(注:翻译来源于 [这里](http://www.qiyun.org/zhuanti/majiaiyaerdechuanshuo.htm))    特点包括: * 适合于那些没有 rogueline 体验的玩家; * 同时支持图形界面和 ASCII 模式; * 某些角色拥有多达 40 种的能力; * 天赋系统; * 战役引擎; * 在线的持久状态/成就追踪; * IRC 聊天客户端; * 可扩展,可修改; * 充满激情的音乐; * 可解锁新的种族,类别,起始点,游戏模式和特点等; * 网站: [te4.org](http://te4.org/) * 开发者: ToME 开发团队 * 协议: GNU GPL v3.0 * 版本号: 1.2.5 ### Cataclysm Dark Days Ahead ![](/data/attachment/album/201504/04/183208illnjjazel3j3axn.png) Cataclysm 是一个开源的 “后末世” roguelike 游戏,背景设定在由怪兽和僵尸带来的毁灭性的瘟疫后虚构的新英格兰(New England) 乡村。它是 Whale 开发的原有 Cataclysm 的继续,拓展了更多新的生物,建筑,游戏机制和其他特点。 尽管有些人描述它为一个 “僵尸游戏”,但 Cataclysm 远比一个“僵尸游戏”包含更多内容。玩家要在一个由程序生成的严酷、持久的世界中艰难生存下去。在一个死寂的文明世界中搜寻剩下的食物和装备,或者假如你足够幸运,搞到一辆装满汽油的汽车逃离 Dodge --这个如地狱一般的地方。从僵尸到巨型昆虫或机器人杀手以及更加奇怪和致命的东西,你要通过战斗来击败它们或逃离,以及和那些想要抢夺你的东西的那些同你一样的人战斗。 在许多方面上, Cataclysm 与大多数的 roguelike 游戏不同。它被设定在一个没有边界的三维世界里,而不是设定在一个垂直、线性的地下城中。这意味着相比于大多数的 roguel 游戏,探险将占一个更大的比重,而且这个游戏将具有更大的自由度。由于地图是如此的巨大,在每次游戏之间,它可以完全保持原样。假如你死了,并以一个新的角色开始,你的新游戏将会设定在同你最近呆过的游戏世界相同的世界里。同许多 roguelike 游戏一样,你可以获得先前角色的战利品;而与大多数 roguelike 不同的是,你也可以重新踏上先前角色的轨迹,并且对世界做出的任何戏剧性改变将会维持到你的下一次游戏。 特点包括: * 详细的角色创建,提供了数量众多的特性来选择; * 防御模式,这是一个有着快节奏作战的休息模式; * Bionics;类似于在许多其他游戏里的魔法系统; * 基因突变, 有好的和坏的变化; * 无界的,完全随机的世界地图,可以在角色交替时保持不变; * 创造物品 + 新的制作方法可能需要通过练习或从书本中获得来磨练你的知识; * 逼真的火、烟和其他动态的地图特效; * 昼/夜循环,需要睡觉。假如你必须的话,可以使用咖啡因来保持更长时间的清醒,但这不健康; * 超过 300 种物品类型,包括众多的现实世界的枪支,药品和工具; + 许多药品是上瘾的,并需要持续使用来避免负面效果; * 通过修补门、窗、建造陷阱和巩固你的家的基石来防止一个僵尸的突然造访; * 能够构建你自己的木屋,包括墙和屋顶; * 可以驾驶在“后末世”发现的汽车兜风; + 这个可以根据你的需求来修改,或甚至你可以自己制造一辆; * 温度系统,太冷或太热都非常危险; * 初步支持贴片界面; * 根据选项生成世界,以及各种编辑方式; * 网站: [en.cataclysmdda.com](http://en.cataclysmdda.com/) * 作者: Kevin Granade 及其他 * 协议: Creative Commons Attribution-ShareAlike 3.0 Unported License * 版本号: 0.B ### Goblin Hack ![](/data/attachment/album/201504/04/183221dhwiojw8fe7900wo.png) Goblin Hack 是一个开源 roguelike 游戏,基于 OpenGL 的平滑滚动的ASCII 图形界面。这个游戏受 NetHack 外观的启发,但更加快速且使用更少的按键。 Goblin Hack 有一个简洁的界面,在今天这个过度强调渲染的游戏世界中,似乎它对所有年龄段的玩家都有吸引力,并启发了这些玩家的想象力。 在被投进一个随机的正在生成的地下城之前,玩家可以从几个角色类别中选择一个角色。 特点包括: * 令人印象深刻的界面(相比于许多其他的 roguelike 游戏); * 简洁的界面; * 在被投进一个随机的正在生成的第一层地下城之前,玩家可以从几个角色类别中选择一个角色; * 手动保存游戏; * 网站: [goblinhack.sourceforge.net](http://goblinhack.sourceforge.net/), [github.com/goblinhack/goblinhack](https://github.com/goblinhack/goblinhack) * 作者: Neil McGill * 协议: GNU GPL v2 * 版本号: 1.19 ### SLASH'EM ![](/data/attachment/album/201504/04/183224ckiy2wsxoj705x0e.png) Super Lotsa Added Stuff Hack - Extended Magic (SLASH'EM) 是一个角色扮演游戏,在其中你控制一个单独的角色。SLASH'EM 是 NetHack 的一个变种。它拥有一个和 Rogue、ADOM、Anghand 及 NetHack 相似的界面和游戏玩法。你通过键盘来控制角色的动作,以一个俯视的视角来查看这个世界。 背景: Amulet of Yendor 已被偷走,不仅如此,偷走 amulet 的 Wizard of Yendor(坏蛋)似乎深藏于 Dungeons of Doom(危险的地方)。 特点包括: * 提供额外的特色、怪兽和项目; * 新颖的特点包括僧人职业和类似推箱子的关卡; * 主地下城比在 NetHack 中的要大很多; * 网站: [www.slashem.org](http://www.slashem.org/) * 开发者: Slash'EM 开发团队 * 协议: MIT License, NetHack General Public License * 版本号: 0.0.7E7F3 ### NetHack ![](/data/attachment/album/201504/04/183227gbbvxbzzajneo07k.jpg) NetHack 是一个极简,但又非常吸引人的具有地下城与龙风格的冒险游戏。“net”元素指的是它的发展已经根据网络进行了调整,“hack”元素指的是角色扮演游戏的一种类型,以乱砍、猛砍著称,着眼于战斗。 在 NetHack 中,你扮演凶猛的战士、巫师或许多其他职业中的一种,一路战斗着,为你的神灵获取 Amulet of Yendor(可以说这是一个倒退!)。在这个过程中,你可能会遇到一个或两个 quantum mechanic(LCTT 译注:从[这里](http://nethack.wikia.com/wiki/Quantum_mechanic)得知,这指的是一种怪兽),或者可能遇到一个小型的太空舰队,抑或是 —— 假如你*足够*幸运会遇到 —— Ravenous Bugblatter Beast of Traal。(LCTT 译注:我参考了[这里](http://nethack.wikia.com/wiki/Douglas_Adams))。 特点包括: * 45-50 个关卡, 其中的大多数随机生成; * 各种各样的物品:武器、盔甲、卷轴、药水、戒指、宝石和各种各样的工具,如钥匙和灯; * 祝福和诅咒; * 永久死亡: 若没有对当前的保存文件进行备份,失效的角色就找不回来了; * 界面: + 文本模式; + 图形化界面, 使用 X、Qt 工具集或 GNOME 库; * 网站: [www.nethack.org](http://www.nethack.org/) * 开发者: NetHack 开发团队 * 协议: NetHack 通用公共许可证 * 版本号: 3.4.3 ### Ascii Sector ![](/data/attachment/album/201504/04/183228gztj827ygcvg8gq7.png) Ascii Sector 是一个免费的太空战斗/探险/交易游戏,它基于经典的电脑游戏 `Wing Commander: Privateer`,后者由 Origine Systems 公司于 1993 年发布。 在 Ascii Sector 中,刚开始你将驾驶一艘简易的飞船,然后可以通过接受任务或者贩卖物品来挣得足够多的钱以升级你的飞船或重新再买一艘。不管是在太空中,还是在地面上,抑或是在飞船上,你可以专注于致命的战斗;并且通过使用 Ascii Sector 的脚本语言,你还可以为游戏创造自己的任务或享受其他玩家创造的任务。 特点包括: * 使用 ANSI 字符集生成图形界面; * 真正的深入到游戏中; * 提供各种基地,任务,商品和飞船; * 飞船型号包括: Broadsword, Centurion, Demon, Dralthi, Drayman, Galaxy, Gladius, Gothri, Kamekh, Nexus, Orion, Paradign, Stileto, Talon, Tarsus 和 Ulysses; * 四个象限: Alizarin, Crimson, Mauve, 和 Viridian; * 可下载的任务; * 任务可用脚本编辑; * Ascii Sector 任务语言,在 Ascii Sector 宇宙中创造你自己的故事; * 可以袭击或抢劫星球上的 NPC(非玩家控制角色); * 可以到处移动的持久性舰队、可以改变系统的控制、引来敌人的舰队、回基地修复或重建; * 可以登录系统受损的飞船; * 可下载高质量的音乐文件; * 网站: [www.asciisector.net](http://www.asciisector.net/) * 开发者: Christian Knudsen * 协议: 免费软件 * 版本号: 0.7.1.4 ### Angband ![](/data/attachment/album/201504/04/183229e4fp5p4yuy0oaoqc.png) Angband 是一个免费、单用户、使用 ASCII 字符图形化的地下城探险游戏,在其中你将以一个冒险者的角色探索一个深深的地下城,与怪兽战斗,获得你能取得的最好武器,准备着与黑暗之主 Morgoth 的最后决战。从上世纪九十年代开始,它一直在持续地开发着。 Angband 沿袭了 Rogue 和 NetHack 的风格路线。它由 Moria 和 Umoria 游戏衍生而来,基于 Rogue 回合制。它经常被描述为一个 “roguelike”游戏,因为它的外观和游戏体验与 Rogue 非常相似。很多游戏中的新生物、物品都来自 J.R.R Tolkien 的画作,尽管有些野兽直接来源于经典的神话、龙与地下城、Rolemaster,或 Angband 的原开发者的脑海中。 特点包括: * 100 层地下城; * 随机产生的新关卡; * 可以选择成为人类、半精灵、精灵、霍比特人、地精、矮人,半兽人,半巨魔, 登丹人 ,高等精灵,或者狗头人; * 神器; * 施法; * 怪物; * 怪物坑; * 怪物巢穴; * 网站: [rephial.org](http://rephial.org/) * 开发者: Angband 开发小组 * 协议: GNU GPL v2 * 版本号: 3.5.0 ### UnNetHack ![](/data/attachment/album/201504/04/183231lfcue7f22idy7g5j.png) UnNetHack 是 NetHack 的一个分支版本。NetHack 最开始于 1987 年发行,并且许多游戏玩家认为它是计算机世界所能提供的最好游戏体验的游戏之一。 特点包括: * 增加了许多针对 NetHack 的增强,如额外的怪兽、更多的关卡、许多新的元素、更多的危险、更具挑战性的游戏,以及最重要的,相比普通的 NetHack,它更具娱乐性; * 帮助新手开始的教程; * 网站: [sourceforge.net/apps/trac/unnethack](http://sourceforge.net/apps/trac/unnethack/) * 作者: Patric Mueller * 协议: Nethack General Public License * 版本号: 5.1.0 ### Hydra Slayer ![](/data/attachment/album/201504/04/183238turvck9u5rnkzdac.png) Hydra Slayer 是一个专注于杀死九头蛇的开源 Roguelike 游戏。它受到了希腊神话、地下城探险、MathRL seven day roguelike ,和一些关于勇者杀死多头野兽的数字谜题等启发。 特点如下: * 独特的游戏机制; * 混合希腊神话和数字迷宫的主题; * 传统的 roguelike ASCII 字符界面或贴片/3D 界面; * 5 种人物角色,具有极为不同的战术、力量及弱点; * 28 种敌人类型: + 10 种基本的九头蛇类型(每种类型都有两种变种); + 8 种特殊类型的敌人; + 可用作战术工具的无害蘑菇; * 28 种装备(并包括材料和装备的大小/力量的变种); * 15 种武器材料; * 18 种非装备物品; * 3 种可供选择的地图; * 8 种关卡拓扑结构(包括莫比乌斯带和克莱因瓶); * 11 个关卡生成器; * 2 种结局; * 网站: [www.roguetemple.com/z/hydra](http://www.roguetemple.com/z/hydra/) * 开发者: Zeno Rogue * 协议: GNU GPL v2 * 版本号: 16.1 ### Brogue ![](/data/attachment/album/201504/04/183246gya2gf712y4y011i.png) Brogue 是一个开源的 Roguelike 游戏,它可以运行在 Mac OS X, Windows, Linux, iOS 和 Android 等平台下。 Brogue 是 Rogue 的一个直系分支,后者是一个最早由 Michael Toy 和 Glenn Wichman 于 1980 年左右开发的地下城探险视频游戏。与其他受欢迎的现代 Roguelike 游戏不同, Brogue 追求简单而不是复杂性,同时尽力确保游戏的不同组成之间的联系是有趣且纷繁多彩。 这个游戏的目标是取得深藏于地下第 26 层的 "Amulet of Yendor",再返回到地面逃出生天。对于那些技术娴熟且想进一步探险的人来说,位于 26 层之下的每层均包含 3 颗 lumenstone (流明石)(LCTT 译注:此处与我在[这里](http://brogue.wikia.com/wiki/Lumenstone)看到的有些出入),获得它们,将在胜利的基础上被授予额外的得分。 Brogue 是一个富有挑战性的游戏,但玩起来非常有趣。尽量不要因游戏的高难度而灰心;试玩一段时间之后,你会发现它变得非常吸引人。 特点如下: * 追求简单而非复杂; * 对用户友好; * 相比于 Rogue, Brogue 关卡生成更加复杂; * 移除了 XP 和 水平系统 ; * 陷阱,防护性物品; * 额外的怪兽类型和魔法物品; * 网站: [sites.google.com/site/broguegame](https://sites.google.com/site/broguegame/) * 作者: Brian Walker * 协议: GNU Affero GPL * 版本号: 1.7.3 --- via: <http://www.linuxlinks.com/article/201412031524381/RoguelikeGames.html> 作者:Frazer Kline 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,201
Linux 有问必答:如何在Linux 中修复“fatal error: x264.h: No such file or directo
http://ask.xmodulo.com/fatal-error-x264-h-no-such-file-or-directory.html
2015-04-05T07:18:00
[ "编译", "安装" ]
/article-5201-1.html
> > **提问**: 我想在Linux中从源码编译视频编码程序。到那时,在编译时,我遇到了一个错误“fatal error: x264.h: No such file or directory”,我该如何修复? > > > 下面的编译错误错明你系统中没有x264开发库文件。 ``` fatal error: x264.h: No such file or directory ``` [x264](http://www.videolan.org/developers/x264.html)是GNU GPL授权的H.264/MPEG-4 AVC编码库。x264库被广泛用于视频编码/转码程序比如Avidemux、[FFmpeg](http://ask.xmodulo.com/compile-ffmpeg-centos-fedora-rhel.html)、 [HandBrake](http://xmodulo.com/how-to-install-handbrake-on-linux.html)、 OpenShot、 MEncode等等。 ![](/data/attachment/album/201504/04/232431xbd6x22h6dklqkth.jpg) 要解决这个问题,你需要安装x264的开发库文件。你可以如下做。 ### 在 Debian、 Ubuntu 或者 Linux Mint 中安装像x264库和开发文件 在基于Debian的系统中,x264库已经包含在基础仓库中。可以直接用apt-get来安装。 ``` $ sudo apt-get install libx264-dev ``` ### 在 Fedora、 CentOS/RHEL中安装像x264库和开发文件 在基于Red Hat的发行版比如Fedora或者CentOS,x264库在免费的RPM Fusion仓库中有。那么,你需要首先安装[RPM Fusion (免费)](http://xmodulo.com/how-to-install-rpm-fusion-on-fedora.html) 。 RPM Fusion设置完成后,你可以使用下面的命令安装x264开发文件。 ``` $ sudo yum --enablerepo=rpmfusion-free install x264-devel ``` 注意RPM Fusion仓库在CentOS 7中还没有,因此上面的方法在CentOS 7中还不可行。万一是CentOS 7 ,你可以从源码编译并安装x264,下面会解释的。 ### 在Debian、 Ubuntu 或者 Linux Mint中源码编译x264库 如果libx264包在你的发行版中并没有,那么你可以按照下面的方法编译最新的x264库。 ``` $ sudo apt-get install g++ automake autoconf libtool yasm nasm git $ git clone git://git.videolan.org/x264.git $ cd x264 $ ./configure --enable-static --enable-shared $ make $ sudo make install ``` x264库将会安装在/usr/local/lib。要让其他程序可以使用这个库,你需要完成最后一步。 打开/etc/ld.so.conf,并添加下面的行。 ``` $ sudo vi /etc/ld.so.conf ``` --- ``` /usr/local/lib ``` 最后运行下面的命令重新加载共享库: ``` $ sudo ldconfig ``` ### 在 Fedora, CentOS/RHEL 中源码编译x264库 如果你Linux的发行版中没有x264库(比如:CentOS 7)或者x264库并不是最新的,你可以如下编译最新的x264库。 ``` $ sudo yum install gcc gcc-c++ automake autoconf libtool yasm nasm git $ git clone git://git.videolan.org/x264.git $ cd x264 $ ./configure --enable-static --enable-shared $ make $ sudo make install ``` 最后,要让其他的程序可以访问到位于 /usr/local/lib的x264库,在 /etc/ld.so.conf加入下面的行。 ``` $ sudo vi /etc/ld.so.conf ``` --- ``` /usr/local/lib ``` 最后运行下面的命令重新加载共享库: ``` $ sudo ldconfig ``` ![](/data/attachment/album/201504/04/232438ebo7g71jbeitkmt0.jpg) --- via: <http://ask.xmodulo.com/fatal-error-x264-h-no-such-file-or-directory.html> 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /fatal-error-x264-h-no-such-file-or-directory.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c5060>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)"))
null
5,202
如何设置 Ubuntu14.04 的 SSH 无密码登录
http://linoxide.com/ubuntu-how-to/setup-passwordless-ssh-logon-ubuntu-14-04/
2015-04-05T13:47:00
[ "ssh", "密钥", "密码", "登录" ]
/article-5202-1.html
大家好,今天我来向大家介绍如何在 Ubuntu12.04 上设置 SSH 的无密码登录功能。仅在工作站上有正确的(公私)密钥对以供匹配时SSH服务端才会允许你登录,反之访问将不会被允许。 正常情况下,我们需要连上SSH的控制台输入用户名及其密码才行。如果两者全部正确,我们就可以访问,反之访问被服务端拒绝。不过相比而言还有一种比用密码更安全的登录方式,我们可以在登录SSH时通过加密密钥进行无密码登录。 如果你想启用这个安全的方式,我们只需简单的禁用密码登录并只允许加密密钥登录即可。使用这种方式时,客户端计算机上会产生一对私钥和公钥。接着客户端得把公钥上传到SSH服务端的authorized\_key文件中去。在授予访问前,服务器及客户端电脑会校验这个密钥对。如果服务器上的公钥与客服端提交的私钥匹配则授予访问权限,否则访问被拒绝。 这是认证到SSH服务器的非常安全的一种做法,如果你想为单一的SSH用户登录实现安全登录,这也是备受推崇的方式。这里快速的过一遍如何启用无密码登录SSH的配置过程。 ![](/data/attachment/album/201504/05/000021v4d9dj1xifazj7tr.png) ### 1.安装Openssh服务端 首先,我们需要更新我们的本地库索引。所以如下所见,我们需要先输入“apt-get update” ``` $ sudo apt-get update ``` ![Updating Repo Index](/data/attachment/album/201504/05/000047guntoo99ozyb2laz.png) 现在我们可以通过以下命令安装openssh-server: ``` $ sudo apt-get install openssh-server ``` ![Installing openssh server](/data/attachment/album/201504/05/000048zh8vlwnv5bzvel86.png) ### 2. 开启openssh服务 在OpenSSH已经成功安装在Ubuntu14.04操作系统上了之后,我们要启动OpenSSH的服务。以下命令让你启动/开启服务。 ``` $ sudo service ssh start ``` 或 ``` $ sudo /etc/init.d/ssh start ``` ### 3. 配置密钥对 在我们安装并启动了OpenSSH服务以后。现在终于到了要我们搞定公私钥对的时候了,在终端中运行以下命令: ``` $ ssh-keygen -t rsa ``` 在运行完以上命令了以后,我们需要回答一系列的问题。首先选择保存密钥的路径,按回车将会选择默认路径即家目录的一个隐藏的.ssh文件夹。下一个提示是请输入口令提醒。我个人将此留空(直接回车)。之后密钥对就会创建,大功告成。 ![Generating Key Pair](/data/attachment/album/201504/05/000049ig6xq136u1f9x2u2.png) 在密钥对生成以后,我们需要将**客户端上的公钥复制到SSH服务端**或者主机,来创建对客户端的信任关系。运行以下命令复制客户端的公钥到服务端。 ``` $ ssh-copy-id user@ip_address ``` 在公钥上传之后,我们现在可以禁用通过密码登陆SSH的方式了。为此,我们需要通过以下命令用文本编辑器打开**/etc/ssh/ssh\_config**。 ``` $ sudo nano /etc/ssh/sshd_config ``` 现在,我们需要按照下图所示去掉几行注释并进行一些赋值。 ![Configuring sshd Config](/data/attachment/album/201504/05/000051pwsc66ywt4330jjf.png) ### 4. 重启SSH服务 最后,在我们配置完SSH服务端后,为了使改动生效我们需要重启SSH服务。在终端或控制台运行以下命令重启。 ``` $ sudo service ssh restart ``` 或 ``` $ sudo /etc/init.d/ssh restart ``` ![Restarting ssh](/data/attachment/album/201504/05/000052uoq3qzbcbaowif86.png) 现在,我们可以试试不用密码仅用密钥对的方式登录ssh服务端了。 ### 总结 太好了!我们成功的配置了无密码登录SSH。使用加密密钥对进行SSH服务器认证是非常安全的一种做法,如果你想为SSH的单一用户登录实施安全的认证这也是备受推崇的方式。所以,如果你还有什么问题或建议,请在意见框中向我们反馈。很欣慰你能读完,希望你能喜欢加密的SSH安全登录 :-) --- via: <http://linoxide.com/ubuntu-how-to/setup-passwordless-ssh-logon-ubuntu-14-04/> 作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[martin2011qi](https://github.com/martin2011qi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /ubuntu-how-to/setup-passwordless-ssh-logon-ubuntu-14-04/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c5d20>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,210
tespeed - 测试网速的Python工具
http://linoxide.com/tools/tespeed-python-tool-test-internet-speed/
2015-04-07T07:30:00
[ "python", "网速" ]
/article-5210-1.html
许多电脑呆子知道可以用**speedtest.net**测试网速,但是这个不能在测试中给你足够的控制。Linux用户喜欢在终端中输入命令来完成任务,至少我就是这样的。 tespeed是一款有很多特性的python工具,可以在终端在测试网速。根据文档说明,它利用了speedtest.net的服务器,但是用户可以手动指定。 最初作者用php语言写了tespeed工具,并且证明了ISP提供的网络远低于它广告中所说的那样。但是事情并不是一直如他们想的那样,因此作者移植他的php脚本到python中,并且他的工具在github中已经有180个star了。 It means **alot**。 ### 如何在linux中测试tespeed 在你电脑上运行这个python程序前先确保系统已经满足了这个工具的依赖。tespeed依赖下面两个包: * lxml * SocksiPy 你可以用pip包管理系统来安装lxml,只要用下面的命令就行。 ``` pip install lxml ``` 现在我们需要输入下面的命令来下载安装SocksiPy。 ``` wget http://sourceforge.net/projects/socksipy/files/socksipy/SocksiPy%201.00/SocksiPy.zip/ ``` 下载完成后 解压**SocksiPy.zip**并运行下面的命令来克隆tespeed仓库到你本地机器中。 ``` git clone https://github.com/Janhouse/tespeed.git ``` 接着把SocksiPy文件夹放到你克隆下来的tespeed项目中。现在我们要像截图那样在SocksiPy中的创建一个叫****init**.py**的空文件。 ![simple trick to make tespeed work](/data/attachment/album/201504/06/224336g68uur6r6nr6gdad.png) 现在我们已经解决了项目的依赖问题,我们可以用下面的命令运行了。 ``` python tespeed.py ``` 接下来就会发生一些神奇的事了。程序会测试你的下载和上传速度并且在你的终端中用漂亮的颜色显示出来。 ![testing download and upload speed with tespeed python application](/data/attachment/album/201504/06/224337uavzvamvu226avwb.png) 在tespeed中有很多选项,如**-ls**来列出服务器,**-p**来指定代理服务器, **-s**来阻止调试(STDERR)输出, 还有很多我们会在本教程中探索。 如果你想要结果显示成MB,你可以在**python tespeed.py** 后面接上选项 **-mib**。 ``` python tespeed.py -mib ``` 在你使用了-mib选项后你可以看到计量网速的单位改变了。 ![testing internet speed with tespeed python application](/data/attachment/album/201504/06/224340hhgqgrqwe68r6gve.png) 我非常喜欢用的一个选项是-w,它可以把标准输出转化成CSV格式。 ``` python tespeed.py -w ``` 使用下面的命令来列出服务器。 ``` python tespeed -ls ``` 运行上面的命令后,你会看到可以用于测试上传和下载速度的服务器列表。我的列表非常长,所以我不会在教程中共享了。 ### 总结 tespeed的确是一款帮助用户在终端中测试上传和下载速度的高性能python脚本。它支持很多的选项并且你可以指定列表中你想使用的服务器。继续使用tespeed并在留言区写下你们的体验吧。 --- via: <http://linoxide.com/tools/tespeed-python-tool-test-internet-speed/> 作者:[Oltjano Terpollari](http://linoxide.com/author/oltjano/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /tools/tespeed-python-tool-test-internet-speed/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c65f0>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,211
游戏玩家的福音:在 Ubuntu 上安装开源 VoIP 应用 Mumble
http://linoxide.com/ubuntu-how-to/install-mumble-ubuntu/
2015-04-07T10:03:00
[ "Mumble", "VoIP", "游戏" ]
/article-5211-1.html
Mumble是一个自由开源的VoIP应用,在新的 BSD 许可证下发布,主要面向的用户群体是游戏玩家。运行起来类似于TeamSpeak和Ventrilo,用户通过连接到同一个服务器来实现相互通讯。 ![](/data/attachment/album/201504/06/230612uuouguqtdqiudt87.jpg) Mumble提供了如下的漂亮特性: * 低延迟,这点对游戏相当重要 * 提供游戏中的可视插件,通过它你可以知道是谁正在和你通话并定位他们的位置 * 交谈内容经过加密的,能够保护你的隐私和安全 * 界面简单易于上手 * 稳定高效的使用你的服务器资源 ### 安装 Mumble [Mumble](http://wiki.mumble.info/wiki/Main_Page)已经流行开来,进入了许多linux主流发行版的软件仓库,这使它安装起来更加的方便。若你使用的是Ubuntu那么使用apt-get就能安装,详细命令如下: ``` $ sudo apt-get install mumble-server ``` ![mumble install](/data/attachment/album/201504/06/230618ymdimeq47ps4futi.jpg) 这条命令将会在你的服务器上安装服务端(亦称Murmur)。 ### 配置 Mumble 运行以下命令启动Mumble: ``` $ sudo dpkg-reconfigure mumble-server ``` 会弹出以下一些问题: ![mumble q1](/data/attachment/album/201504/06/230619y230yodoemb1oh7y.jpg) 选择“是”让服务器开机时自动启动mumble,接着它会询问你是否运行高优先级模式以保持低延迟,为了让它保持最佳性能这是个不错的主意。 ![mumble q2](/data/attachment/album/201504/06/230621vng4nhapaqg3jhzq.jpg) 接着为你刚安装好的mumble服务端设管理员用户的密码,记住这个密码,它会在登录时用到。 ![mumble q3](/data/attachment/album/201504/06/230622b7m7im3o7n6rgbv2.jpg) ### 安装 Mumble 客户端 客户端可以安装到许多的主流操作系统中,例如windows,mac和linux。我们将教你在Ubuntu linux上安装和配置,你可以使用软件中心也可以用命令安装客户端: ``` $ sudo apt-get install mumble ``` 第一次运行mumble时,配置向导将会帮助你配置音频的输入输出,使其能在客户端上保持最好的效果。第一次同样也会询问你要使用的是什么声音设备和麦克风: ![mumble client 1](/data/attachment/album/201504/06/230624lqcc27ceclihcno3.jpg) 然后它将帮你校准设备: ![mumble client 2](/data/attachment/album/201504/06/230627j0gpmopmdpd6c06t.jpg) 因为mumble会帮你加密所有的通讯内容所以它会要求你创建证书: ![mumble client 3](/data/attachment/album/201504/06/230630d2hr84o4frw4sa0g.jpg) 完成配置向导后你就能添加第一个服务器,连接对话框如下图所示: ![mumble add server](/data/attachment/album/201504/06/230632ext483b5xdu5dlm3.jpg) 首先输入一个标签,名字任意因为那只不过是为了记住服务器的,然后输入服务器的地址和端口,最后使用“SuperUser”作为用户名,而密码则是你配置mumble服务器端时输入的密码。 现在你可以连接到服务器了,在联网玩游戏或与你好友、队友聊天开黑时享受这些功能给你带来的乐趣吧! --- via: <http://linoxide.com/ubuntu-how-to/install-mumble-ubuntu/> 作者:[Adrian Dinu](http://linoxide.com/author/adriand/) 译者:[martin2011qi](https://github.com/martin2011qi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /ubuntu-how-to/install-mumble-ubuntu/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c65c0>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,212
使用 backupninja 为 Debian 定制备份计划
http://xmodulo.com/create-custom-backup-plan-debian.html
2015-04-07T14:33:00
[ "backupninja", "备份" ]
https://linux.cn/article-5212-1.html
backupninja是Debian系统(以及基于Debian的发行版)中一个强大的、高度可配置的备份软件。在[前一篇文章](http://linux.cn/article-5096-1.html)中,我们探讨了如何安装backupninja以及如何设置两个备份操作并执行。然而,那些只是冰山一角。这一次,我们要讨论如何定制 Handler 和 Helper ,使用这些功能定制策略以完成任何备份需要。 ![](/data/attachment/album/201504/06/233831caluar044r42clla.jpg) ### 回顾 backupninja backupninja的一个独特的地方是它可以完全抛弃/etc/backup.d中的纯文本配置文件和操作文件,软件自己会搞定。另外,我们可以编写自定义脚本(又叫 “handler”)放在/usr/share/backupninja 目录下来完成不同类型的备份操作。此外,可以通过ninjahelper的基于ncurses的交互式菜单(又叫“helper”)来指导我们创建一些配置文件,使得人工错误降到最低。 ### 创建定制的Handler与Helper 这一节的目标是创建一个脚本,将home目录以**gzip**或**bzip2**压缩包的形式备份起来,不包括音乐与视频文件。我们将这个文件命名为home,将它放在/usr/backup/ninja目录下。 尽管你可以使用默认的tar handler(参考 /usr/share/backupninja/tar 与 /usr/share/backupninja/tar.helper)来达到这个效果,但是我们使用这种方法来展示如何创建实用的 handler 脚本与基于 ncurses 的 helper。你可以根据你的需求来决定如何运用这里的方法。 由于 handlers 来源于主脚本,所以无需以#!/bin/bash开始的释伴行(shebang line)。 我们编写的 handler (/usr/share/backupninja/home)如下所示。已经详细注释了。getconf 函数用来读取备份操作的配置文件。如果你指定了一个变量的值,那么它会覆盖配置文件中对应变量的值: ``` #/home 目录 handler 脚本 # 每个备份文件会通过 FQDN 来鉴别主机 getconf backupname # 备份文件的保存目录 getconf backupdir # 默认压缩 getconf compress # 包含 /home 目录 getconf includes #不包含 *.mp3 与 *.mp4 文件 getconf excludes # 要打包备份文件的默认扩展名 getconf EXTENSION # tar 程序的绝对路径 getconf TAR `which tar` # date 程序的绝对路径 getconf DATE `which date` # 日期格式 DATEFORMAT="%Y-%m-%d" # 如果备份目录不存在,以致命错误退出 if [ ! -d "$backupdir" ] then mkdir -p "$backupdir" || fatal "Can not make directory $backupdir" fi # 如果备份目录不可写,同样以致命错误退出 if [ ! -w "$backupdir" ] then fatal "Directory $backupdir is not writable" fi # 根据压缩格式选择对应的tar选项 case $compress in "gzip") compress_option="-z" EXTENSION="tar.gz" ;; "bzip") compress_option="-j" EXTENSION="tar.bz2" ;; "none") compress_option="" ;; *) warning "Unknown compress filter ($tar_compress)" compress_option="" EXTENSION="tar.gz" ;; esac # 不包含一些文件类型/目录 exclude_options="" for i in $excludes do exclude_options="$exclude_options --exclude $i" done # 调试信息,执行备份操作 debug "Running backup: " $TAR -c -p -v $compress_option $exclude_options \ -f "$backupdir/$backupname-"`$DATE "+$DATEFORMAT"`".$EXTENSION" \ $includes # 将标准输出重定向到以.list为扩展的文件 # 将标准错误输出重定向到以.err为扩展的文件 $TAR -c -p -v $compress_option $exclude_options \ -f "$backupdir/$backupname-"`$DATE "+$DATEFORMAT"`".$EXTENSION" \ $includes \ > "$backupdir/$backupname-"`$DATE "+$DATEFORMAT"`.list \ 2> "$backupdir/$backupname-"`$DATE "+$DATEFORMAT"`.err [ $? -ne 0 ] && fatal "Tar backup failed" ``` 接下来我们将要创建helper文件(/usr/share/backupninja/home.helper)。这样,hendlers将会以菜单的形式在**ninjahelper**中显示: ``` # 备份操作描述,以下划线分割单词 HELPERS="$HELPERS home:backup_of_home_directories" home_wizard() { home_title="Home action wizard" backupname=`hostname --fqdn` # 指定备份操作的时间 inputBox "$home_title" "When to run this action?" "everyday at 01" [ $? = 1 ] && return home_when_run="when = $REPLY" # 指定备份文件名 inputBox "$home_title" "\"Name\" of backups" "$backupname" [ $? = 1 ] && return home_backupname="backupname = $REPLY" backupname="$REPLY" # 指定保存备份文件的默认路径 inputBox "$home_title" "Directory where to store the backups" "/var/backups/home" [ $? = 1 ] && return home_backupdir="backupdir = $REPLY" # 指定复选框的默认值 radioBox "$home_title" "Compression" \ "none" "No compression" off \ "gzip" "Compress with gzip" on \ "bzip" "Compress with bzip" off [ $? = 1 ] && return; result="$REPLY" home_compress="compress = $REPLY " REPLY= while [ -z "$REPLY" ]; do formBegin "$home_title: Includes" formItem "Include:" /home/gacanepa formDisplay [ $? = 0 ] || return 1 home_includes="includes = " for i in $REPLY; do [ -n "$i" ] && home_includes="$home_includes $i" done done REPLY= while [ -z "$REPLY" ]; do formBegin "$home_title: Excludes" formItem "Exclude:" *.mp3 formItem "Exclude:" *.mp4 # 按需增加多个“Exclude”文本框指定其他不须包含的内容 formItem "Exclude:" formItem "Exclude:" formDisplay [ $? = 0 ] || return 1 home_excludes="excludes = " for i in $REPLY; do [ -n "$i" ] && home_excludes="$home_excludes $i" done done # 保存配置 get_next_filename $configdirectory/10.home cat > $next_filename <<EOF $home_when_run $home_backupname $home_backupdir $home_compress $home_includes $home_excludes # tar 程序的路径,必须为GNU tar TAR `which tar` DATE `which date` DATEFORMAT "%Y-%m-%d" EXTENSION tar EOF # 将配置文件的权限改为600 chmod 600 $next_filename } ``` ### 运行 ninjahelper 当创建了名为home的handler脚本以及对应的home.helper后,运行ninjahelper命令创建一个新的备份操作。 ``` #ninjahelper ``` 选择 create a new backup action(创建一个新的备份操作)。 ![](/data/attachment/album/201504/06/233935we74l25w5ml5s7x7.jpg) 接下来将看到可选的操作类型,这里选择“backup of home directories"(备份home目录): ![](/data/attachment/album/201504/06/233940bvqd0d47qzlo9vgd.jpg) 然后会显示在helper中设置的默认值(这里只显示了3个)。可以编辑文本框中的值。注意,关于“when”变量的语法,参考文档的日程安排章节。 ![](/data/attachment/album/201504/06/233945yjnoo62fhoof6z7p.jpg) ![](/data/attachment/album/201504/06/233947bo7nt884j7c3nduo.jpg) ![](/data/attachment/album/201504/06/233949p0iiuus00ds3nniy.jpg) 当完成备份操作的创建后,它会显示在ninjahelper的初始化菜单中: ![](/data/attachment/album/201504/06/233953po2mww4vuukmwrvp.jpg) 按回车键显示这个备份操作的选项。因为它非常简单,所以我们可以随便对它进行一些实验。 注意,“run this action now"(立即运行)选项会不顾日程表安排的时间而立即进行备份操作: ![](/data/attachment/album/201504/06/233956di2fmc1xll9nm2mb.jpg) 备份操作会发生一些错误,debug会提供一些有用的信息以帮助你定位错误并纠正。例如,当备份操作有错误并且没有被纠正,那么当它运行时将会打印出如下所示的错误信息。 ![](/data/attachment/album/201504/06/233959boptxgpz35dytbzo.jpg) 上面的图片告诉我们,用于完成备份操作的连接没有建立,因为它所需要链接的远程主机似乎宕机了。另外,在helper文件中指定的目标目录不存在。当纠正这些问题后,重新开始备份操作。 需要牢记的事情: * 当你在/usr/share/backupninja 下新建了一个自定义脚本(如foobar)来处理特殊的备份操作时,那么你还需要编写与之对应的helper(foobar.helper)文件,ninjahelper 将通过它生成名为10.foobar(下一个操作为11,以此类推)的文件,保存在/etc/backup.d目录下,而这个文件才是备份操作的真正的配置文件。 * 可以通过ninjahelper设定好备份操作的执行时间,或按照“when”变量中设置的频率来执行。 ### 总结 在这篇文章中,我们探讨了如何从头创建我们自己的备份操作,以及如何向ninjahelper添加相关的菜单以生成对应的配置文件。通过[上一篇](http://linux.cn/article-5096-1.html)与这一篇文章,我希望我已经给出了足够好的理由让你继续研究,或者至少应该尝试一下。 --- via: <http://xmodulo.com/create-custom-backup-plan-debian.html> 作者:[Gabriel Cánepa](http://xmodulo.com/author/gabriel) 译者:[SPccman](https://github.com/SPccman) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,222
如何在Ubuntu上修复“Not Enough Free Disk Space On /boot”
http://www.unixmen.com/how-to-fix-not-enough-free-disk-space-on-boot-in-ubuntu/
2015-04-08T10:32:00
[ "ubuntu tweak" ]
https://linux.cn/article-5222-1.html
### 提问:如何在Ubuntu上修复“Not Enough Free Disk Space On /boot”错误? 今天,当我在升级Lubuntu 14.04的时候遇到了下面这个错误,但是很简单。 > > “Not Enough Free Disk Space On /boot” > > > ![](/data/attachment/album/201504/07/223403nw4q215kx8l2mqx7.png) 这是因为我的 /boot 分区被不再需要的旧内核与包塞满了。 ### 回答: 我听说Ubuntu Tweak中的**Computer Janitor**功能可以删除不想要的垃圾文件。使用Computer Janitor,你可以将你的系统清理成像新安装的那样。Janitor会删除: * 程序缓存(Firefox/Chrome 缓存、软件中心缓存); * 略缩图缓存; * apt缓存; * 旧内核; * 包的配置; * 不再需要的包。 如果你还没有安装这个工具,参考下面的链接 * **[如何安装和使用Ubuntu Tweak](http://linux.cn/article-3335-1.html)** 要删除不需要的垃圾文件,打开Ubuntu Tweak,点击 **Janitor** 选项。 ![](/data/attachment/album/201504/07/223406r5cvkiazrirgp9gj.png) 选择你想要删除的文件的选框,并点击 **Clean** 按钮。 ![](/data/attachment/album/201504/07/223409mglg01h0gh8dlgq4.png) Janitor现在就开始清理你的系统了。 ![](/data/attachment/album/201504/07/223412i2e2u07gpn3n22vf.png) 真酷!系统清理完成了。 ![](/data/attachment/album/201504/07/223413dett0l608kl0gztc.png) 我重启启动了软件更新。这个没再遇到问题了。 ![](/data/attachment/album/201504/07/223414oot7mbb7bsyv9vr7.png) 就是这样。当然也有其他的方法可以清理系统。但是,这个方法很容易学。我们可以只点击几次鼠标就可以清理系统。 干杯! --- via: <http://www.unixmen.com/how-to-fix-not-enough-free-disk-space-on-boot-in-ubuntu/> 作者:[SK](https://www.unixmen.com/author/sk/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,223
Linux有问必答:Perl中本地时间和UNIX时间戳间相互转换
http://ask.xmodulo.com/convert-local-time-unix-timestamp-perl.html
2015-04-08T11:52:00
[ "perl", "时间转换" ]
/article-5223-1.html
> > **问题**: 在Perl语言中,我需要转换易读的日期和时间到对应的UNIX时间戳,反之亦然。你可以给我一些将日期及时间转换到UNIX时间戳的Perl代码例子吗?或者相反,转换UNIX时间戳到可读的日期和时间。 > > > 当你的Perl脚本需要解决时间信息,这里有两种方法来表示和处理日期和时间。一种方法是易读的时间表示(例,"Sat Mar 14 10:14:05 EDT 2015"),另外一种是使用UNIX时间戳(也叫“新纪元时间”),这是从1970年1月1日到今所经过的时间秒数。每一种方法都有它自己的优劣势,取决于你的需要,也许也就需要转换一种格式到另一种。 ![](/data/attachment/album/201504/07/225546ffzm313q37awa1fk.png) ### Perl中转换本地时间到UNIX时间戳 为了从日期字符串中获得UNIX时间,可以使用Date::Parse模块中str2time()函数。此函数可以处理多种格式,例如: * Sat Mar 14 10:14:05 EDT 2015 * 3/14/2015 10:14:05 -0400 * 14/Mar/15 10:14:05 * 14 Mar 15 10:14:05 ``` use Date::Parse; my $local_time = "Sat Mar 14 10:14:05 EDT 2015"; # 1426342445 will be stored in $unix_time my $unix_time = str2time($local_time); ``` Date:Parse 模块支持多种语言(英语,法语,德语和意大利语)和时区。例如: ``` use Date::Parse; use Date::Language; my $lang = Date::Language->new('French'); my $unix_time = $lang->str2time("12:14:05, Ago 16, 2014 (CEST)"); ``` ### Perl中UNIX时间戳到易读的日期和时间 如果你想要转换UNIX时间戳到易读的格式,可以使用localtime()函数,此函数可以转换UNIX时间戳为一个9元素列表。然后你可以使用返回的list构造任何你需要的可读格式。这里有一个代码片段: ``` # $sec, $min, $hour: 秒,分,时 # $mday: 月中的某天 (0-31) # $mon: 月份,范围 0 (一月) 至 11 (十二月) # $year: 年份,与1900年的差值(2015年为2015-1900=115) # $wday: 星期,范围 0 (星期天) 至 6 (星期六) # $yday: 年中的某天,范围 0 至 364 (或 365 闰年) # $isdst: 是否是夏令时 my ($sec, $min, $hour, $mday, $mon, $year, $wday, $yday, $isdst) = localtime($unix_timestamp); # necessary conversion of $mon and $year $mon += 1; $year += 1900; print "Current time: $year-$mon-$mday $hour:$min:$sec\n"; ``` --- via: <http://ask.xmodulo.com/convert-local-time-unix-timestamp-perl.html> 作者:[Dan Nanni](http://ask.xmodulo.com/author/nanni) 译者:[VicYu/Vic020](http://vicyu.net) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /convert-local-time-unix-timestamp-perl.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c6470>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)"))
null
5,224
PHP 5.5 / PHP5.6 / PHP-NG 和 HHVM 哪个性能更好?
https://kinsta.com/blog/real-world-wordpress-benchmarks-with-php5-5-php5-6-php-ng-and-hhvm/
2015-04-08T09:40:00
[ "PHP", "PHP-NG", "HHVM" ]
https://linux.cn/article-5224-1.html
**摘要:在一个基于Vagrant的本地环境中,可能是某个错误的原因,导致HHVM测试结果很差;在HHVM伙伴们协助下,该原因仍在研究中!然而,在DigitalOcean的一个4GB虚拟机中,HHVM甚至盖过了最新版的PHP-NG的风头!** ![](/data/attachment/album/201504/07/234331p3bmkxwx500xxf5s.jpg) **结论:它们反映出HHVM的功效更佳(在JIT热启动后),虽然出于某些原因,我们不能在所有装备中获取这些结果。** 如果你记得我们[在几个月前写过一篇文章](https://kinsta.com/blog/hhvm-and-wordpress/),那时WordPress 3.9表明是完全支持HHVM的,当时是那么令我们欢欣鼓舞。最初的基准测试结果显示,HHVM要比驱动着当前所有PHP构建的Zend引擎高级得多。后来,问题就出来了: * HHVM只能以单个用户运行,这意味着(在共享环境中)安全性差了 * HHVM在崩溃后不会自动重启,而不幸的是,它至今仍然经常发生 * HHVM在启动时使用大量内存,虽然,它和同规模的PHP-FPM比较,单个请求的内存使用量更低 很显然,你不得不根据你的(或者更确切地说是你的站点)的需求采取折中方案,然而这值得吗?切换到HHVM后,你期望获得多少性能改善呢? 在Kinsta,我们真的想要测试所有新技术,并通常会优化这一切来为我们的客户提供最佳的环境。今天,我最终花了点时间来配置测试环境并进行了一些测试来对比两个不同的构建,一个是全新出炉的WordPress安装,另外一个则添加了大量内容的WooCommerce!为了计量脚本的运行时间,我只是简单地添加了 ``` <?php timer_stop(1); ?> ``` 这一行到footer.php的/body标记前。 这里是配置环境的详情: * DigitalOcean 4GB 雨滴容器 (2 CPU核心, 4GB RAM) * Ubuntu 14.04, MariaDB10 * 测试站点: 已导入演示内容的Munditia主题,WooCommerce 2.1.12 & WordPress 3.9.1 * PHP 5.5.9, PHP 5.5.15, PHP 5.6.0 RC2, PHP-NG (20140718-git-6cc487d)和HHVM 3.2.0 (版本是PHP 5.6.99-hhvm) **没有进一步大费周章,这些就是我的测试结果,数值越低越好,以秒为单位:** ### DigitalOcean 4GB 雨滴容器 单位是秒,运行10次,越低越好 ![](/data/attachment/album/201504/07/234146hvke5qwoe41e405p.png) 看起来似乎PHP-NG在它首次运行后就获得了峰值性能!HHVM需要更多几次重载,但是它们的性能貌似差不多!我等不及PHP-NG合并到开发主干了!:) 一分钟命中数,越高越好。 ![](/data/attachment/album/201504/07/234214demrp6k0zkzgooz8.png) **PHP 5.5.15禁用OpCache** * 执行: **236 hits** * 可用性: 100.00 % * 消耗时间: 59.03 secs * 传输的数据: 2.40 MB * 回应时间: 2.47 secs * 执行率: 4.00 trans/sec * 吞吐量: 0.04 MB/sec * 并发数: 9.87 * 成功的执行: 236 * 失败的执行: 0 * 最长执行: 4.44 * 最短执行: 0.48 **PHP 5.5.15启用OpCache** * 执行: **441 hits** * 可用性: 100.00 % * 消耗时间: 59.55 secs * 传输的数据: 4.48 MB * 回应时间: 1.34 secs * 执行率: 7.41 trans/sec * 吞吐量: 0.08 MB/sec * 并发数: 9.91 * 成功的执行: 441 * 失败的执行: 0 * 最长执行: 2.19 * 最短执行: 0.64 **PHP 5.6 RC2禁用OpCache** * 执行: **207 hits** * 可用性: 100.00 % * 消耗时间: 59.87 secs * 传输的数据: 2.10 MB * 回应时间: 2.80 secs * 执行率: 3.46 trans/sec * 吞吐量: 0.04 MB/sec * 并发数: 9.68 * 成功的执行: 207 * 失败的执行: 0 * 最长执行: 3.65 * 最短执行: 0.54 **PHP 5.6 RC2启用OpCache** * 执行: **412 hits** * 可用性: 100.00 % * 消耗时间: 59.03 secs * 传输的数据: 4.18 MB * 回应时间: 1.42 secs * 执行率: 6.98 trans/sec * 吞吐量: 0.07 MB/sec * 并发数: 9.88 * 成功的执行: 412 * 失败的执行: 0 * 最长执行: 1.93 * 最短执行: 0.34 **HHVM 3.2.0(版本是PHP 5.6.99-hhvm)** * 执行: **955 hits** * 可用性: 100.00 % * 消耗时间: 59.69 secs * 传输的数据: 9.18 MB * 回应时间: 0.62 secs * 执行率: 16.00 trans/sec * 吞吐量: 0.15 MB/sec * 并发数: 9.94 * 成功的执行: 955 * 失败的执行: 0 * 最长执行: 0.85 * 最短执行: 0.23 **PHP-NG启用OpCache(构建: Jul 29 2014)** * 执行: **849 hits** * 可用性: 100.00 % * 消耗时间: 59.88 secs * 传输的数据: 8.63 MB * 回应时间: 0.70 secs * 执行率: 14.18 trans/sec * 吞吐量: 0.14 MB/sec * 并发数: 9.94 * 成功的执行: 849 * 失败的执行: 0 * 最长执行: 1.06 * 最短执行: 0.13 **注意:这里节略了前一次的测试结果(有误),如感兴趣请访问原文查看。** --- via: <https://kinsta.com/blog/real-world-wordpress-benchmarks-with-php5-5-php5-6-php-ng-and-hhvm/> 作者:[Mark Gavalda](https://kinsta.com/blog/author/kinstadmin/) 译者:[GOLinux](https://github.com/GOLinux) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,234
“最好的 PHP 框架”调查报告(2015版)
http://www.sitepoint.com/best-php-framework-2015-sitepoint-survey-results/
2015-04-10T10:51:00
[ "PHP", "框架" ]
https://linux.cn/article-5234-1.html
一个月前,我们就开始了一年一度SitePoint框架人气调查。这个月结束后, 我们需要花点时间来看看结果。 共收到了7800多份问卷,远远超过我们迄今为止做的任何调查,甚至在过滤掉无效的问卷后,我们最终得到的有效参与者仍然很多。 ![](/data/attachment/album/201504/10/110136x4tl1p2ttr424tup.jpg) 首先第一件事情,如我们所承诺的,你可以在此 [下载](https://github.com/sitepoint-editors/php-fw-survey-2015) 详细的报告。请随便使用它 – 如果你对一些图表感兴趣,请与我们分享你的想法!可以阅读[原文](http://www.sitepoint.com/best-php-framework-2015-sitepoint-survey-results/)中的“数据”部分了解详细信息。 2015年最流行的框架 ----------- ### 框架的赢家 要查看下面图片或全屏幕版本,只需点击它们。 或在新的标签页打开他们。 正如预期的那样,**Laravel**再次远远胜出。 [![php_framework_popularity_at_work_-_sitepoint2c_2015](/data/attachment/album/201504/10/110137qnqddxgdrqrlm9mj.png)](https://img.linux.net.cn/data/attachment/album/201504/10/110137qnqddxgdrqrlm9mj.png) [![php_framework_popularity_in_personal_projects_-_sitepoint2c_2015](/data/attachment/album/201504/10/110138ugb4e52uryud5a44.png)](https://img.linux.net.cn/data/attachment/album/201504/10/110138ugb4e52uryud5a44.png) 有一些人可能会担心,部分框架的分支版本可能影响Laravel的胜出,但我们可以看到,即使合并其他的框架的各个版本,Laravel也能获胜。 下面将以表格形式来呈现数据, 只是因为我没有时间做漂亮的图表。我会尽快更新图表。 ### 按国家统计框架 下面我们来看看所有超过50票的国家,这些都是他们最喜欢使用框架: | | | | | | | | --- | --- | --- | --- | --- | --- | | 国家 | 总票数 | 工作中最爱 | 票数 | 个人最爱 | 票数 | | United States | 819 | Laravel | 219 | Laravel | 293 | | Czech Republic | 770 | Nette | 611 | Nette | 639 | | United Kingdom | 496 | Laravel | 138 | Laravel | 166 | | Germany | 428 | Symfony2 | 76 | Laravel | 100 | | France | 343 | Symfony2 | 149 | Symfony2 | 136 | | Brazil | 305 | Laravel | 100 | Laravel | 111 | | India | 287 | Laravel | 62 | Laravel | 77 | | Ukraine | 263 | PHPixie | 66 | PHPixie | 67 | | Indonesia | 242 | CodeIgniter | 77 | Laravel | 64 | | Russian Federation | 235 | Yii 2 | 53 | Yii 2 | 72 | | Poland | 216 | Symfony2 | 52 | Symfony2 | 46 | | Netherlands | 209 | Laravel | 64 | Laravel | 84 | | Romania | 183 | Symfony2 | 49 | Symfony2 | 48 | | Canada | 138 | Laravel | 40 | Laravel | 52 | | Spain | 131 | Symfony2 | 47 | Symfony2 | 43 | | Vietnam | 112 | Laravel | 34 | Laravel | 43 | | Iran | 101 | Laravel | 34 | Laravel | 35 | | Italy | 100 | Laravel | 20 | Laravel | 25 | | Australia | 99 | Laravel | 30 | Laravel | 39 | | Slovakia | 94 | Nette | 48 | Nette | 47 | | Belgium | 79 | Laravel | 26 | Laravel | 31 | | Serbia | 78 | Laravel | 20 | Laravel | 29 | | Hungary | 73 | Laravel | 17 | Laravel | 19 | | Turkey | 71 | Laravel | 26 | Laravel | 28 | | Mexico | 68 | Laravel | 22 | Laravel | 21 | | Bulgaria | 66 | Laravel | 13 | Laravel | 20 | | Lithuania | 65 | Symfony2 | 22 | Laravel | 26 | | Thailand | 58 | CodeIgniter | 14 | Laravel | 16 | | Pakistan | 57 | CodeIgniter | 14 | CodeIgniter | 13 | | Philippines | 54 | Laravel | 15 | Laravel | 16 | | Argentina | 52 | Laravel | 16 | Laravel | 21 | | Bangladesh | 51 | Laravel | 18 | Laravel | 16 | | Belarus | 51 | Symfony2 | 20 | Symfony2 | 19 | | Portugal | 50 | Laravel | 12 | Laravel | 17 | 这是一个有趣的趋势观察。大多数英语国家青睐Laravel,而法国则对Symfony忠诚 – 这是它们自己的产品。有趣的是,一个令人难以置信的是大部分捷克人(在本调查中第二活跃的国家!)青睐Nette – 这个框架在西方世界知之甚少,而乌克兰最喜欢的当地框架 – PHPixie。当你观察前五名的国家会觉得更加有趣 – 不只是赢家– 你可以自己看看! ### 按年龄分组框架 最后,如果我们看看各年龄组的前5名框架,我们得到这样的结果: | | | | --- | --- | | 小于18岁 | 票数:131 | | 工作中最爱 | 票数 | 个人最爱 | 票数 | | PHPixie | 73 | PHPixie | 73 | | Laravel | 24 | Laravel | 27 | | Nette | 8 | Nette | 9 | | No Framework | 6 | No Framework | 5 | | CodeIgniter | 4 | Symfony2 | 4 | | | | | --- | --- | | 18 – 25 岁 | 票数:2433 | | 工作中最爱 | 票数 | 个人最爱 | 票数 | | Laravel | 604 | Laravel | 720 | | Nette | 329 | Nette | 338 | | PHPixie | 259 | PHPixie | 259 | | Symfony2 | 258 | Symfony2 | 255 | | CodeIgniter | 178 | Yii 2 | 194 | | | | | --- | --- | | 26 – 35 岁 | 票数:3870 | | 工作中最爱 | 票数 | 个人最爱 | 票数 | | Laravel | 788 | Laravel | 1049 | | Symfony2 | 636 | Symfony2 | 597 | | CodeIgniter | 292 | Yii 2 | 323 | | Nette | 285 | Nette | 303 | | Yii 2 | 258 | CodeIgniter | 235 | | | | | --- | --- | | 36 – 45 岁 | 票数:1044 | | 工作中最爱 | 票数 | 个人最爱 | 票数 | | Laravel | 191 | Laravel | 249 | | Symfony2 | 146 | Symfony2 | 134 | | CodeIgniter | 91 | Yii 2 | 79 | | Zend Framework 2 | 77 | Zend Framework 2 | 71 | | Company Internal Framework | 73 | CodeIgniter | 68 | | | | | --- | --- | | 45 岁以上 | 票数:252 | | 工作中最爱 | 票数 | 个人最爱 | 票数 | | Laravel | 52 | Laravel | 66 | | CodeIgniter | 31 | No Framework | 29 | | Symfony2 | 23 | CodeIgniter | 27 | | No Framework | 21 | Yii 2 | 22 | | Yii 2 | 19 | Zend Framework 2 | 14 | Laravel再次领先所有框架,Symfony紧随其后,除了在最小年龄组的情况中 – PHPixie 也许是由于在学校中培训的原因?结果并不出乎意料,除了最小年龄组和最老年龄组似乎并不使用框架。最明显的是CodeIgniter,即便是现在,仍保持着很强的传统势力和忠实的用户群。 有趣的是,与去年同期相比Phalcon的人气急剧下降,甚至跌出了排行榜,这也许是由于样本量大增的原因? 不幸的是,由于去年一些抱怨,我们在本次调查没有包括性别数据。这本来是一个有趣的载体。 (注:本文是节译,完整报告请查看原文)。
301
Moved Permanently
null
5,259
Linux 4.0 发布——我是一只羊
https://lkml.org/lkml/2015/4/12/178
2015-04-14T07:00:00
[ "内核", "Linux" ]
https://linux.cn/article-5259-1.html
![](/data/attachment/album/201504/13/225922hlubukzpd9n7k1ab.jpg) 就在周日,Linus 如期发布了 Linux 4.0,这个版本的代号被称为“**[Hurr durr I'ma sheep](https://imasheep.hurrdurr.org/)**”: > > 日期: 2015/4/12 15:41:30 周日 -0700 > 主题: Linux 4.0 发布 > 来自: 我是一只羊 > > > > 那么,我决定按照正常的计划发布 4.0 了,因为没有出现什么问题,而且我下周会去一个大学访问,我希望这不会非常影响到合并窗口,希望吧。 > > > 从 linux-next 分支和最终大小上看,Linux 4.0是一个相当小的发布版本(LCTT 译注:linux-next是Stephen Rothwell创造的分支,主要用于放一些将在下一周期合并进内核主支的补丁)。但是这个“小”是相对而言的,它仍然包含了超过一万个的非合并提交。不过,我们肯定会有更大的发布版本(估计之后的 linux-next 4.1 会更大)。 > > > 一切都很好,这完全符合“v4.0 应该是一个**稳定的**发布版本”的要求,而不是带有很多新的体验性功能的发布版本。我个人非常喜欢按照时间进行发布,而不是过去那种有了重大功能才进行发布的做法。 > > > 也就是说,4.0里面没有什么特别有趣的东西。从 git 上的统计来看,这个发布版本不仅仅达成了 50 万个提交数的新成就,也跨越了 400 万个 git 对象数量的限制。有趣的是(从数字的角度看),Linux 3.0 时我们超过了 25 万提交数和 200 万个 git 对象数量,看起来真有规律(其实完全是巧合)。 > > > [ 另外一个趣事:我们原来使用的 BK 版本库(LCTT 译注:bitkeeper)有着提交数用16位二进制存储的限制,所以25万提交数量已经很多了,因为我们使用 BK 的那些年就提交了将近65000次。当然,我们使用 BK 才3年,而换到 git 近十年了。无论如何,这说明我们的开发工作快了**许多**。] > > > 就功能而言,4.0 并没有什么特殊的。新内核的补丁主要是基础架构方面的,实际上,这并不是版本号改变的原因,我们可能在其它的(小)版本中有更大的改变。所以,这只是一个“按部就班”的发布而已。 > > > 弄下来体验一下吧, > > > 我们全是羊 —— Linus Torvalds > > > 4.0虽说是没有什么特别新的功能,不过还是有几个值得关注的亮点: * Live Patching——不用重启为内核打补丁的机制; * parallel NFS (pNFS)子系统支持FlexFile布局; * ubifs文件系统支持多队列块层; * Btrfs 文件系统更新,支持 Intel Quark X1000 SoC和基于MIPS32 Release 6的处理器; * VirtIO 1.0; * 可信计算TPM 2.0支持;
200
OK
Messages in this thread | ![/](/images/icornerl.gif) | Date | Sun, 12 Apr 2015 15:41:30 -0700 | Subject | Linux 4.0 released | From | Ima Sheep <> | | | So I decided to release 4.0 as per the normal schedule, because there really weren't any known issues, and while I'll be traveling during the end of the upcoming week due to a college visit, I'm hoping that won't affect the merge window very much. We'll see. Linux 4.0 was a pretty small release both in linux-next and in final size, although obviously "small" is all relative. It's still over 10k non-merge commits. But we've definitely had bigger releases (and judging by linux-next v4.1 is going to be one of the bigger ones). Which is all good. It definitely matches the "v4.0 is supposed to be a _stable_ release", and very much not about new experimental features etc. I'm personally so much happier with time-based releases than the bad old days when we had feature-based releases. That said, there's a few interesting numerological things going on with 4.0. Looking at just the statistics in git, this release is not just when we cross half a million commits total, but also cross the 4 million git object limit. Interestingly (if you look for numeric patterns), Linux 3.0 was when we crossed a quarter million commits and 2 million git objects, so there's a nice (and completely unintentional) pattern there when it comes to the kernel git repository. [ Another quick historical numerological footnote: the old historical BK tree was getting close to the 16-bit commilt limit that BK originally used to have. So that whole "quarter of a million commits" is actually quite a lot. During all of the BK years we only got 65k commits. Of course, we only used BK for three years, and we've now been on git for almost exactly ten years, but still - it shows how the whole development process has really sped up a _lot_ ] Feature-wise, 4.0 doesn't have all that much special. Much have been made of the new kernel patching infrastructure, but realistically, that not only wasn't the reason for the version number change, we've had much bigger changes in other versions. So this is very much a "solid code progress" release. Go get it and enjoy, Linus "we're all sheep" Torvalds | ![\](/images/icornerr.gif) |
5,266
如何配置使用 HTTP 严格传输安全(HSTS)
https://raymii.org/s/tutorials/HTTP_Strict_Transport_Security_for_Apache_NGINX_and_Lighttpd.html
2015-04-15T08:40:00
[ "HSTS", "https" ]
https://linux.cn/article-5266-1.html
HTTP 严格传输安全(HSTS)是一种安全功能,web 服务器通过它来告诉浏览器仅用 HTTPS 来与之通讯,而不是使用 HTTP。本文会说明如何在 Apache2、Nginx 和 Lighttpd 上如何启用 HSTS。在主流的 web 服务器上测试通过: Nginx 1.1.19、 Lighttpd 1.4.28 和 Apache 2.2.22 ,环境为 Ubuntu 12.04、 Debian 6 & 7 和 CentOS 6,只需要调整部分参数就可以工作在其它的发行版上。 ![](/data/attachment/album/201504/14/142928nt90umljtulb8nte.gif) ### 什么是 HTTP 严格传输安全? 引用自 [Mozilla Developer Network](https://developer.mozilla.org/en-US/docs/Security/HTTP_Strict_Transport_Security): > > 如果一个 web 服务器支持 HTTP 访问,并将其重定向到 HTTPS 访问的话,那么访问者在重定向前的初始会话是非加密的。举个例子,比如访问者输入 http://www.foo.com/ 或直接输入 foo.com 时。 > > > 这就给了中间人攻击的一个机会,重定向可能会被破坏,从而定向到一个恶意站点而不是应该访问的加密页面。 > > > HTTP 严格传输安全(HSTS)功能使 Web 服务器告知浏览器绝不使用 HTTP 访问,在浏览器端自动将所有到该站点的 HTTP 访问替换为 HTTPS 访问。 > > > 以下引自[维基百科](http://zh.wikipedia.org/wiki/HTTP%E4%B8%A5%E6%A0%BC%E4%BC%A0%E8%BE%93%E5%AE%89%E5%85%A8): > > HSTS 可以用来抵御 SSL 剥离攻击。SSL 剥离攻击是中间人攻击的一种,由 Moxie Marlinspike 于2009年发明。他在当年的黑帽大会上发表的题为 “New Tricks For Defeating SSL In Practice” 的演讲中将这种攻击方式公开。SSL剥离的实施方法是阻止浏览器与服务器创建HTTPS连接。它的前提是用户很少直接在地址栏输入https://,用户总是通过点击链接或3xx重定向,从HTTP页面进入HTTPS页面。所以攻击者可以在用户访问HTTP页面时替换所有https://开头的链接为http://,达到阻止HTTPS的目的。<sup class="reference" id="cite_ref-9"></sup> > > > HSTS可以很大程度上解决SSL剥离攻击,因为只要浏览器曾经与服务器创建过一次安全连接,之后浏览器会强制使用HTTPS,即使链接被换成了HTTP。 > > > 另外,如果中间人使用自己的自签名证书来进行攻击,浏览器会给出警告,但是许多用户会忽略警告。HSTS解决了这一问题,一旦服务器发送了HSTS字段,用户将不再允许忽略警告。 > > > 场景举例: > > 当你通过一个无线路由器的免费 WiFi 访问你的网银时,很不幸的,这个免费 WiFi 也许就是由黑客的笔记本所提供的,他们会劫持你的原始请求,并将其重定向到克隆的网银站点,然后,你的所有的隐私数据都曝光在黑客眼下。 > > > 严格传输安全可以解决这个问题。如果你之前使用 HTTPS 访问过你的网银,而且网银的站点支持 HSTS,那么你的浏览器就知道应该只使用 HTTPS,无论你是否输入了 HTTPS。这样就防范了中间人劫持攻击。 > > > 注意,如果你之前没有使用 HTTPS 访问过该站点,那么 HSTS 是不奏效的。网站需要通过 HTTPS 协议告诉你的浏览器它支持 HSTS。 服务器开启 HSTS 的方法是,当客户端通过HTTPS发出请求时,在服务器返回的 HTTP 响应头中包含 `Strict-Transport-Security` 字段。非加密传输时设置的HSTS字段无效。 ### 在 Apache2 中设置 HSTS 编辑你的 apache 配置文件(如 `/etc/apache2/sites-enabled/website.conf` 和 `/etc/apache2/httpd.conf ),并加以下行到你的 HTTPS` VirtualHost: ``` # Optionally load the headers module: LoadModule headers_module modules/mod_headers.so <VirtualHost 67.89.123.45:443> Header always set Strict-Transport-Security "max-age=63072000; includeSubdomains; preload" </VirtualHost> ``` 现在你的 web 站点在每次访问时都会发送该请求头,失效时间是两年(秒数)。这个失效时间每次都会设置为两年后,所以,明天你访问时,它会设置为明天的两年后。 你只能在 HTTPS 虚拟机中设置这个头,而不能设置在 HTTP 虚拟机中。 要将你的访问者重定向到对应 HTTPS 站点,可使用如下设置: ``` <VirtualHost *:80> [...] ServerName example.com Redirect permanent / https://example.com/ </VirtualHost> ``` 如果仅仅是做重定向的话,甚至不需要设置 DocumentRoot。 你也可以使用 mod\_rewrite 来做重定向,但是上述的方式更简单更安全。不过,mod\_rewrite 可以重定向页面到对应的 HTTPS 页面,而上述配置则只重定向到“/”: ``` <VirtualHost *:80> [...] <IfModule mod_rewrite.c> RewriteEngine On RewriteCond %{HTTPS} off RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} </IfModule> </VirtualHost> ``` 不要忘记重启 Apache。 ### Lighttpd 对于 lighttpd 来说很简单,将下述配置增加到你的 Lighttpd 配置文件(例如:`/etc/lighttpd/lighttpd.conf):` ``` server.modules += ( "mod_setenv" ) $HTTP["scheme"] == "https" { setenv.add-response-header = ( "Strict-Transport-Security" => "max-age=63072000; includeSubdomains; preload") } ``` 重启 Lighttpd。失效时间也是两年。 ### Nginx Nginx 甚至更简单,将下述行添加到你的 HTTPS 配置的 server 块中: ``` add_header Strict-Transport-Security "max-age=63072000; includeSubdomains; preload"; ``` 不要忘记重启 Nginx。
200
OK
[Skip to main content](#main) # [Raymii.org ](https://raymii.org/s/) Quis custodiet ipsos custodes?[Home](/s/)| [About](/s/static/About.html)| [All pages](/s/tags/all.html)| [Cluster Status](/s/software/Sparkling_Network.html)| [RSS Feed](https://raymii.org/s/feed.xml) ## HTTP Strict Transport Security for Apache, NGINX and Lighttpd Published: 17-06-2016 | Author: Remy van Elst | [Text only version of this article](HTTP_Strict_Transport_Security_for_Apache_NGINX_and_Lighttpd.txt) **❗ This post is over eight years old. It may no longer be up to date. Opinions may have changed.** ### Table of Contents HTTP Strict Transport Security (often abbreviated as HSTS) is a security feature that lets a web site tell browsers that it should only be communicated with using HTTPS, instead of using HTTP. This tutorial will show you how to set up HSTS in Apache2, NGINX and Lighttpd. It is tested with all mentioned webservers, NGINX 1.1.19, Lighttpd 1.4.28 and Apache 2.2.22 on Ubuntu 12.04, Debian 6 & 7 and CentOS 6.It should work on other distro's however, these are just reference values. **Recently I removed all Google Ads from this site due to their invasive tracking, as well as Google Analytics. Please, if you found this content useful, consider a small donation using any of the options below:** [I'm developing an open source monitoring app called Leaf Node Monitoring, for windows, linux & android. Go check it out!](https://leafnode.nl) [Consider sponsoring me on Github. It means the world to me if you show your appreciation and you'll help pay the server costs.](https://github.com/sponsors/RaymiiOrg/) [You can also sponsor me by getting a Digital Ocean VPS. With this referral link you'll get $200 credit for 60 days. Spend $25 after your credit expires and I'll get $25!](https://www.digitalocean.com/?refcode=7435ae6b8212) ### What is HTTP Strict Transport Security? Quoting the [Mozilla Developer Network](https://developer.mozilla.org/en-US/docs/Security/HTTP_Strict_Transport_Security): ``` If a web site accepts a connection through HTTP and redirects to HTTPS, the user in this case may initially talk to the non-encrypted version of the site before being redirected, if, for example, the user types http://www.foo.com/ or even just foo.com. This opens up the potential for a man-in-the-middle attack, where the redirect could be exploited to direct a user to a malicious site instead of the secure version of the original page. The HTTP Strict Transport Security feature lets a web site inform the browser that it should never load the site using HTTP, and should automatically convert all attempts to access the site using HTTP to HTTPS requests instead. ``` An example scenario: ``` You log into a free WiFi access point at an airport and start surfing the web, visiting your online banking service to check your balance and pay a couple of bills. Unfortunately, the access point you're using is actually a hacker's laptop, and they're intercepting your original HTTP request and redirecting you to a clone of your bank's site instead of the real thing. Now your private data is exposed to the hacker. Strict Transport Security resolves this problem; as long as you've accessed your bank's web site once using HTTPS, and the bank's web site uses Strict Transport Security, your browser will know to automatically use only HTTPS, which prevents hackers from performing this sort of man-in-the-middle attack. ``` *Do note that HSTS does not work if you've never visited the website before.* A website needs to tell you it is HTTPS only. ### Important regarding preload In the below configuration the `preload` directive was used. As requested by Lucas Garron from Google I removed it since most people seem to do screw it up. Please note that that ``` THE PRELOAD DIRECTIVE WILL HAVE SEMI-PERMANENT CONSEQUENCE ``` . If you are testing, screw up or don't want to use HSTS anymore you might be on the preload list. It is important that you understand what you are doing and that you understand that the preload directive means that it will end up in browsers. If your HTTPS configuration is wrong, broken or you don't want to use HTTPS anymore, you will experience problems. [See this page](https://hstspreload.appspot.com/) as well. If you still want to use `preload` , just append it to the header after the semi- colon. ### Set up HSTS in Apache2 Edit your apache configuration file (`/etc/apache2/sites-enabled/website.conf` and `/etc/apache2/httpd.conf` for example) and add the following to your VirtualHost: ``` # Optionally load the headers module: LoadModule headers_module modules/mod_headers.so <VirtualHost 67.89.123.45:443> Header always set Strict-Transport-Security "max-age=63072000; includeSubdomains;" </VirtualHost> ``` Now your website will set the header every time someone visits, with an expiration date of two years (in seconds). It sets it at every visit. So tomorrow, it will say two years again. You do have to set it on the HTTPS vhost only. It cannot be in the http vhost. To redirect your visitors to the HTTPS version of your website, use the following configuration: ``` <VirtualHost *:80> [...] ServerName example.com Redirect permanent / https://example.com/ </VirtualHost> ``` If you only redirect, you dont even need a document root. You can also use mod *rewrite, however the above method is simpler and safer. However, mod* rewrite below redirects the user to the page they were visiting over https, the above config just redirects to /: ``` <VirtualHost *:80> [...] <IfModule mod_rewrite.c> RewriteEngine On RewriteCond %{HTTPS} off RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} </IfModule> </VirtualHost> ``` And don't forget to restart Apache. ### Lighttpd The lighttpd variant is just as simple. Add it to your Lighttpd configuration file (`/etc/lighttpd/lighttpd.conf` for example): ``` server.modules += ( "mod_setenv" ) $HTTP["scheme"] == "https" { setenv.add-response-header = ( "Strict-Transport-Security" => "max-age=63072000; includeSubdomains; ") } ``` And restart Lighttpd. Here the time is also two years. ### NGINX NGINX is even shorter with its config. Add this in the `server` block for your HTTPS configuration: ``` add_header Strict-Transport-Security "max-age=63072000; includeSubdomains; "; ``` Don't forget to restart NGINX. ### X-Frame-Options header The last tip I'll give you is the X-Frame-Options header, which you can add to your HTTPS website to make sure it is not embedded in a frame or iframe. This avoids clickjacking, and might be helpfull for HTTPS websites. Quoting the [Mozilla Developer Network again](https://developer.mozilla.org/en-US/docs/HTTP/X-Frame-Options): ``` The X-Frame-Options HTTP response header can be used to indicate whether or not a browser should be allowed to render a page in a `<frame>` or `<iframe>`. Sites can use this to avoid clickjacking attacks, by ensuring that their content is not embedded into other sites. ``` You can change DENY to SAMEORIGIN or ALLOW-FROM uri, see the Mozilla link above for more information on that. (Or the [RFC](http://tools.ietf.org/html/rfc7034).) #### X-Frame-Options for Apache2 As above, add this to the apache config file: ``` Header always set X-Frame-Options DENY ``` ### Lighttpd This goes in the lighttpd config. Make sure you don't double the above set config, if you have that, just add the rule it to it. ``` server.modules += ( "mod_setenv" ) $HTTP["scheme"] == "https" { setenv.add-response-header = ( "X-Frame-Options" => "DENY") } ``` #### NGINX Yet again, in a `server` block: ``` add_header X-Frame-Options "DENY"; ``` Tags: [apache](../tags/apache.html), [hsts](../tags/hsts.html), [https](../tags/https.html), [lighttpd](../tags/lighttpd.html), [nginx](../tags/nginx.html), [security](../tags/security.html), [ssl](../tags/ssl.html), [tls](../tags/tls.html), [tutorials](../tags/tutorials.html)
5,268
VirturalBox 终于进入到 5.0 世代
http://www.infoworld.com/article/2905098/virtualization/oracle-virtualbox-5-0-beta-is-finally-here.html
2015-04-15T07:16:00
[ "VirtualBox" ]
https://linux.cn/article-5268-1.html
**本月初,甲骨文公司的桌面虚拟化软件获得了近五年来的第一次重大改版,但是更像是改进而不是革命性的的变化。** VirtualBox,由Sun公司创建,现在由甲骨文管理的开源虚拟化系统,获得了近5年来第一次的主版本更新发布。 从发行说明和测试版本身的表现来看,别期望任何真正革命性的改变。在此版本中,VirtualBox在视觉上和技术上都做了一些改进,但和VMware相比,它的主要优势仍然是相同核心功能的开源实现。 VirtualBox 4.0的最后一个主要版本在2010年12月发布,它采用了新的图形化用户界面,新的虚拟化硬件和重组的项目设计,进行了重大的改版。但项目主要版本的发布步伐缓慢,上一次重要版本(版本4.3)在2013年底才发布。从那时起,一切都被正式称为“维护”发布。 ![](/data/attachment/album/201504/14/211717pzqtqqmw0v5qambq.png) *VirtualBox 5.0的第一个测试版增加了编辑菜单,VM窗口的快捷方式图标等功能,如下面所示。* VirtualBox 5.0最大的变化是增加了对硬件辅助虚拟化指令集扩展的支持。AES-NI指令集通常用于加密时的硬件加速,SSE 4.1和SSE 4.2指令集都包括在其中。另外一点是支持Windows和Linux客户机的半虚拟化,一个抽象主机音响设备的新的架构以及支持客户机中的USB 3(xHCI)控制器。 大部分可用性更新都是对 VirtualBox 图形化用户界面的改进。一个大的变化就是支持给单个虚拟主机自定义菜单和工具栏,这样很少或者从不使用的选项就可以彻底删除。另外重要的一点是可以在VirtualBox接口内部对虚拟磁盘进行加密,而不依赖于客户机操作系统自身的磁盘加密功能(假设有的话)。 甲骨文公司提醒由于这是个测试版软件,需要谨慎对待。当然,主界面和客户机系统界面的某个角落打着红黑相间的测试警告标志。但之前VirtualBox发行版(4.3.26)上创建的Windows 10虚拟机启动和运行都没问题,5.0版本中添加的VirtualBox客户机功能--更好的视频支持,双向复制和粘贴,以及其它功能--在安装的时候也没有问题。(从4.3.18版本就改进了对 Windows 10的支持)。 虽然没有明确指出5.0的最终版什么时候会发布,但是甲骨文公司[建议用户](https://forums.virtualbox.org/viewtopic.php?f=15&t=66904)在非生产环境中下载和使用测试版,并在[测试版反馈论坛](https://forums.virtualbox.org/viewforum.php?f=15)中提交bug报告。 --- via: <http://www.infoworld.com/article/2905098/virtualization/oracle-virtualbox-5-0-beta-is-finally-here.html> 作者:[Serdar Yegulalp](http://www.infoworld.com/author/Serdar-Yegulalp/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,269
Exaile 3.4.1 概览:一个全功能的GNOME音乐播放器
http://www.tuxarena.com/2014/11/exaile-3-4-1-overview-a-feature-complete-gnome-music-player/
2015-04-15T08:26:00
[ "Exaile", "媒体播放器" ]
https://linux.cn/article-5269-1.html
**Exaile** 在过去两年显得有些平静,也许只有一个或者两个稳定版发布,但尽管如此,在功能方面,它是一个和[Rhythmbox](https://wiki.gnome.org/Apps/Rhythmbox)或者[Banshee](http://banshee.fm/)相匹敌的全功能GNOME音乐播放器。不过,在过去的两个月,在"We’re not dead yet"的口号下,他们推出了一个新的稳定版3.4,同时在11月1日还推出了3.4.1增量版本。事实上,Exaile有很多的功能,我可以继续写很多的文章而不是在一篇文章里全部介绍到,就让我们来看一下一些最显著的特点吧。 ![](/data/attachment/album/201504/14/222219bctd7dtb4z3kdkcd.jpg) [Exaile](http://www.exaile.org/)是基于GTK-2,用Python写的音乐播放器,它能很好地兼容GNOME,有和旧的Amarok1.4或者Clementine非常类似的界面,以及一些很好的功能。界面主要由两个面板组成,两个都支持标签。左边的面板提供对音乐集,网络音频,智能和自定义播放列表,文件浏览,播客,组标签以及歌词的访问,窗口的主要部分是播放列表(支持多个列表,以标签方式组织的播放列表)和控制按钮。 Exaile的界面和Clementine或者Amarok1.4非常相似,可以显示或者隐藏左边的标签。 ![](/data/attachment/album/201504/14/222223k6aaqzpqfrqgq8r6.jpg) 版本3.4增加了很多新的主要功能和更改,而3.4.1是一个小的bug修复版本。版本3.4的新功能包括类似Icecast的新插件,歌词同步,播放列表分析器,Soma.fm,以及新的更简单的插件API。用户界面和一般操作也作了修改,包括可以在多个面板显示播放列表,关闭左边的面板以及更好的BPM用户界面集成。 第一次打开Exaile你可以添加歌曲文件夹到音乐集中-你也可以选择添加文件夹并设置在打开Exaile的时候是否监视或者扫描这些文件夹: ![](/data/attachment/album/201504/14/222226f3he1h30h24ds8hn.jpg) Exaile的功能几乎不尽其数。你可以在音乐集中组织音乐,听播客,对音乐进行评分,编辑标签,查看文件属性,排列歌曲,查看歌曲和封面,按照多种方式排序播放列表,更改播放行为和外观风格。 均衡器,封面管理以及收听网络电台: ![](/data/attachment/album/201504/14/222234b9fzk256eske7eme.jpg) 自动检测本地专辑封面,可以全尺寸显示,放大或者缩小: ![](/data/attachment/album/201504/14/222241apbaifbjk77jmjza.jpg) 首选项窗口允许配置Exaile的各个方面,包括启用或者禁用插件,外观,系统托盘集成或者播放模式。外观设置允许你更改标签的布局,显示或者隐藏便签栏,启用或者禁用透明性或者禁用启动画面。 ![](/data/attachment/album/201504/14/222243zr8x8xxrye7o5a8u.jpg) ![](/data/attachment/album/201504/14/222245ae6ed6v00ne3ilzn.jpg) 系统托盘集成提供了一个快速播放或者暂停音乐,对音乐评分或者更改音乐列表播放模式(随机,重复或者动态)的菜单。 ![](/data/attachment/album/201504/14/222247dfb54cqx7x35qzze.jpg) ![](/data/attachment/album/201504/14/222247dfb54cqx7x35qzze.jpg) 我相信Exaile数不尽的功能使它成为音乐播放器的完美选择,尤其是对于GNOME用户。每个用户都会对丰富多样的选项和高度可配置的方式感到满意。 ### 在Ubuntu 14.04 和 14.10上安装Exaile 3.4.1 从源码编译并安装和简单明了。首先获取依赖包: ``` sudo apt-get build-dep exaile sudo apt-get install python-gst0.10 ``` 从[下载页面](http://www.exaile.org/download/)(或者直接点击[这里](https://github.com/exaile-dev/exaile/archive/3.4.1.tar.gz))下载源码包,然后解压: ``` tar -xf exaile-3.4.1.tar.gz ``` 更改工作目录到exaile-3.4.1然后运行下面的命令: ``` make sudo make install ``` 二进制可执行文件将被安装为 **/usr/local/bin/exaile**. --- via: <http://www.tuxarena.com/2014/11/exaile-3-4-1-overview-a-feature-complete-gnome-music-player/> 作者:Craciun Dan 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,272
Linux内核4.0功能:实时内核补丁,支持PS3
http://www.omgubuntu.co.uk/2015/04/linux-kernel-4-0-new-features
2015-04-15T14:06:47
[]
https://linux.cn/article-5272-1.html
**Linux Torvalds 在Linux内核邮件列表里[发布](http://linux.cn/article-5259-1.html)了Linux内核新的稳定版。** Linux 4.0,代号为‘Hurr durr I’m a sheep’,带来了一小系列新硬件支持,驱动改进,性能调整,错误修复等。 但是其实没有太多的更新的必要,Torvalds 写到: > > 功能方面,4.0 并没有那么多特别的。虽然在内核补丁设施上做了很多工作,但事实上[...] 我们在其它版本中有更大的改变。所以这仅仅是一次“按部就班”的发布。 > > > Linus 补充说Linux 4.1 可能是一个“大版本”。 ### Linux内核4.0新功能 **无需重启安装内核更新** 你肯定遇到过内核更新需要重启你的Linux系统而被打断工作,这并不是你一个人遇到的问题。这对于桌面操作系统来说是个小小的不便,对于服务器来说却是大问题。 ![内核更新无需重启](/data/attachment/album/201504/15/140650lqqnsrcuyu1nqte8.jpg) *内核更新无需重启* 实时给Linux内核安装/使用安全补丁而不需要重启,多年来一直是Linux爱好者希望实现的事情。 一些第三方项目,例如[Oracle 的 KSplice](http://www.omgubuntu.co.uk/2009/10/how-to-install-kernel-updates-without-rebooting)和红帽的 Kpatch,已经为一些特定的发行版提供实时补丁的功能。 对于服务器,企业单位以及关键任务正常运行,实现实时内核补丁是一个相当大的问题。 好消息是Linux 4.0 使得重启系统以完成内核更新成为了过去。 如果不是完全不需要重启,也是基本不需要。 在最新的发行版中,实现了支持免重启安装补丁的最初基础,为有经验的系统管理员发挥 Linux 4.0的优势做好了准备。 桌面Linux发行版也应该能够利用这个功能的优势(但考虑到在最终用户端配置免重启功能会比较复杂而有一些路要走)。 在以后的4.x系列中,这个基础功能会持续完善和改进。我希望我们能更多听到它的一些信息。 #### 其它改进 尽管被认为是一次小版本的发布,最新的Linux内核还是带来了一系列的硬件改进,新的驱动以及性能调整。 它们包括: * 针对Intel ‘Skylake’ 平台的改进 * 支持Intel Quark SoC * 改善Linux在Playstation 3上运行的系列补丁 * TOpen-source AMD Radeon驱动支持DisplayPort音频 * 各种HID驱动调整,包括Lenovo紧凑型键盘,Wacom Cintiq 27QHD * 东芝电源设置驱动器增加了USB睡眠/充电功能,快速充电,睡眠/音乐等 * 文件系统调整,包括F2FS, BtrfFS等 ### 在Ubuntu上安装Linux内核4.0 尽管被归为稳定版本,但目前而言,**桌面用户和新用户没有必要去升级**。 如果从[Canonical的主线内核文档](http://kernel.ubuntu.com/%7Ekernel-ppa/mainline/?C=N;O=D)抓取合适的安装包或者冒着第三方PPA库的风险在Ubuntu 15.04测试版安装Linux4.0,那么这种急躁或者不娴熟可能会带来问题。 Ubuntu 15.04 Vivid Vervet 将在本月晚些时候发布并会附带Ubuntu内核 3.19(Ubuntu的内核是由Linux内核以及一些上游发行版还没有接受的 Ubuntu 特定的补丁组成)。 --- via: <http://www.omgubuntu.co.uk/2015/04/linux-kernel-4-0-new-features> 作者:[Joey-Elijah Sneddon](https://plus.google.com/117485690627814051450/?rel=author) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,273
红帽开发者工具集3.1测试版发布了
http://www.zdnet.com/article/red-hat-developer-toolset-3-1-beta-arrives/
2015-04-15T21:03:00
[ "RHEL" ]
https://linux.cn/article-5273-1.html
> > **摘要**:想要试试最新的红帽企业版Linux 6/7的开发者工具?测试版已经发布啦。 > > > 这是[DevOps](http://blogs.csc.com/2015/02/03/devops-theory-for-beginners/)也不能完全解决的程序员和系统管理员之间永恒的问题之一。系统管理员想要最稳定的操作系统,而程序员想要最新最棒的开发工具。[红帽公司](http://www.redhat.com/en)对这个两难问题的解决方法就是用最新的稳定版[Red Hat Enterprise Linux (RHEL)](http://www.redhat.com/en/technologies/linux-platforms/enterprise-linux)去测试这些新品牌工具,然后向开发者发布。 ![红帽开发者工具集](/data/attachment/album/201504/15/210331ce8ir3o1mufuzow9.png) *红帽开发者工具集* 红帽刚刚公布了给开发者的最新玩具:[红帽开发者工具集 3.1](http://www.redhat.com/en/about/blog/red-hat-developer-toolset-31-beta-now-available)。现在可以获得这些最热门工具包的测试版了。 这次更新包括: [GNUCompiler Collection (GCC) 4.9](https://gcc.gnu.org/gcc-4.9/): 最新的GCC上游稳定版本,提供多处改进和bug修复。 [Eclipse 4.4.1](https://projects.eclipse.org/projects/eclipse/releases/4.4.1): 支持Java 8 以及更新的Eclipse CDT(8.5)版本,Eclipse Linux Tools (3.1), Eclipse Mylyn (3.14), 和 Eclipse Egit/Jgit (3.6.1) 众多其它的更新包: 包括 GDB 7.8.2, elfutils 0.161, memstomp 0.1.5, SystemTap 2.6, Valgrind 3.10.1, Dyninst 8.2.1, 以及 ltrace 0.7.91. 用这些开发工具,你可以给RHEL 6 和 7.x 开发应用程序。这些应用程序可以在RHEL上运行,不管是物理机,虚拟机还是云环境。它们也可以在红帽提供的Platform-as-a-Service (PaaS)服务[OpenShift](https://www.openshift.com/)上运行。 这些新的开发者程序集包括可以运行在[AMD64 和 Intel 64 架构](https://access.redhat.com/documentation/en-US/Red_Hat_Developer_Toolset/3-Beta/html/3.1_Release_Notes/System_Requirements.html)上RHEL 7的包。尽管这些工具都是64位的,你也可以用它们创建或者修改32位的二进制文件。 在运行任何这些程序之前,你应该安装RHEL所有最近的更新。要安装这个测试工具集,你的系统需要订阅“可选渠道”来获取所有红帽开发者工具集需要的工具链包。 另外,如果已经安装了早期版本的工具集,可能会遇到[安装Toolkit 3.1 时的一些问题](https://access.redhat.com/documentation/en-US/Red_Hat_Developer_Toolset/3-Beta/html/3.1_Release_Notes/DTS3.1_Release.html#Known_Issues)。尽管这些问题很容易解决,在安装新的工具集之前还是应该大概看一下这些可能出现的问题。 最后,你可能注意到一些最令人激动的工具,例如 Docker,Kubernetes以及其它容器工具并没有提供。因为它们在最新的发行版[RHEL 7.1](http://www.zdnet.com/article/red-hat-7-1-is-here-centos-7-1-is-coming-soon/) 和 [Red Hat Enterprise Linux 7 Atomic Host (RHELAH)](http://www.zdnet.com/article/red-hat-buys-into-docker-containers-with-atomic-host/)中。[红帽和Docker已成为合作伙伴](http://www.zdnet.com/article/red-hat-partners-with-docker-to-create-linuxdocker-software-stack/),要获取这些支持容器的程序,你需要转换到支持Docker的RHEL版本上来。 --- via: <http://www.zdnet.com/article/red-hat-developer-toolset-3-1-beta-arrives/> 作者:[Steven J. Vaughan-Nichols](http://www.zdnet.com/meet-the-team/us/sjvn/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,275
Torvalds: 写linux内核的人更加容易找工作
http://www.infoworld.com/article/2885339/application-development/torvalds-people-who-start-writing-kernel-code-get-hired-really-quickly.html
2015-04-16T07:25:00
[ "Linux", "内核" ]
https://linux.cn/article-5275-1.html
相比起以往,linux内核开发这么专业的事情,在最近发布的《谁在编写 Linux》报告中,其无偿贡献者降到了历史最低水平。 这个报道由linux基金会撰写,上年有11.8%的内核开发是由无偿贡献者完成,相比2012年的14.6%下滑了19%。基金会说贡献者有逐年下降的趋势。 ![](/data/attachment/album/201504/15/222557btzvvevrtre3kref.png) 即使是这样,在最新的《谁在编写 Linux》报告里,无偿贡献者还是最大的单一贡献来源,共做了11968 处修改,占整体的12.4%。然而,linux基金会说,企业贡献者共同占比越来越多,超过80%的内核贡献是由有偿的专业开发者完成的。 根据 linus Torvalds 说,这个有偿开发者趋势不会对内核开发的本身有太多改变。 他向《Network World》说,“我认为不会改变太多的一个原因是,其实并不是‘无偿贡献者离开了’,而是‘编写内核的人很快就被雇走了’。” Torvalds讲到,linux开发的改变有很多其他原因,很自然的,新的贡献者会经常冒出来;有很多原来的开发者,有的有着10年的经验,被很多对linux感兴趣的公司抢去了。 他说:“开始我们是自愿者,但我们后来也很高兴被请去开发linux。” Torvalds 开始抽离了他的开发角色,根据报道在3.10的内核版本里面他个人发布了329个补丁,占04%。逐渐地,各个子系统的维护人员自己开始做代码检查与合并。 --- via: <http://www.infoworld.com/article/2885339/application-development/torvalds-people-who-start-writing-kernel-code-get-hired-really-quickly.html> 作者:[Jon Gold](http://www.infoworld.com/author/Jon-Gold/) 译者:[haimingfg](https://github.com/haimingfg) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,277
如何在 CentOS/RHEL 中为 Apache Tomcat 绑定 IPv4 地址
http://linoxide.com/linux-how-to/bind-apache-tomcat-ipv4-centos/
2015-04-16T08:53:00
[ "Tomcat" ]
/article-5277-1.html
今天我们来学习一下如何在CentOS 7 Linux分布式系统中为Tomcat绑定IPv4。 **Apache Tomcat** 是由[Apache 软件基金会](http://www.apache.org/) 开发的开源web服务器和servlet容器。它实现了Java Servlet,JavaServer页面(JSP),Java的统一表达式语言,以及Sun Microsystems的Java的WebSocket规范,并提供了一个运行java代码的web服务器环境。 ![](/data/attachment/album/201504/15/225640vhs29ms614zz9y45.jpg) 如果由于tomcat默认绑定到IPv6而导致我们的web服务器不能正常工作,就有必要将tomcat绑定到IPv4。众所周知,IPv6是为设备分配IP地址的现代方法,虽然在不久的将来也许会得到应用,但是现在并没有得到完全应用。由于没有用处,目前我们并不需要将我们的Tomcat服务器向IPv6转换,我们应该将其绑定到IPv4。 在开始将tomcat绑定到IPv4之前,我们应该确保在我们的CentOS 7中已经安装了tomcat。可以看这个[如何在CentOS 7.0服务器中安装tomcat 8](http://linoxide.com/linux-how-to/install-tomcat-8-centos-7/)的指导。 ### 1. 切换到tomcat用户 首先,我们要切换到 **tomcat** 用户。我们可以通过在shell或者终端中运行 **su tomcat** 命令完成。 ``` # su tomcat ``` ![切换到tomcat用户](/data/attachment/album/201504/15/225647r2zooz137z186iw8.png) ### 2. 找到文件 Catalina.sh 现在我们要进入Apache Tomcat安装目录下的bin文件夹,通常是 **/usr/share/apache-tomcat-8.0.x/bin/**, 这里的x是 Apache Tomcat发行版的子版本号。因为我的CentOS 7服务器中安装的版本是8.0.18,这里我的目录是 **/usr/share/apache-tomcat-8.0.18/bin/**。 ``` $ cd /usr/share/apache-tomcat-8.0.18/bin ``` **注意:请用你系统中安装的Apache Tomcat的版本号替换8.0.18。** 在bin目录中,有一个名字是catalina.sh的脚本文件。这就是我们要编辑的文件,我们将在里面增加一行将tomcat绑定到IPv4的配置信息。你可以通过在shell或者终端中运行命令 **ls** 来查看这个文件。 ``` $ ls ``` ![查找文件 catalina.sh](/data/attachment/album/201504/15/225649fugq0f28005zu0u8.png) ### 3. 配置 Catalina.sh 如图所示,我们将在catalina.sh脚本文件的最后增加一行 `JAVA_OPTS= "$JAVA_OPTS -Djava.net.preferIPv4Stack=true -Djava.net.preferIPv4Addresses"`。我们可以使用我们喜欢的文本编辑器来编辑这个文件,例如nano、vim等等。这里我们使用nano。 ``` $ nano catalina.sh ``` ![Catalina script](/data/attachment/album/201504/15/225652cyzgfyf54jyd2joj.png) 然后,如下图所示,将该行增加到文件。 ![配置 catalina](/data/attachment/album/201504/15/225655qnnjnq8xg22zj01t.png) 现在,我们已经将配置信息增加到文件中。保存文件并退出nano。 ### 4. 重启 现在,我们通过重启tomcat服务器使配置生效。我们要先运行shutdown.sh,然后运行startup.sh。 ``` $ ./shutdown.sh ``` 运行可执行文件startup.sh: ``` $ ./startup.sh ``` ![重启apache tomcat 服务器](/data/attachment/album/201504/15/225657pdvxxhjoorz27xi7.png) 这将重启我们的tomcat服务器并加载将服务器绑定到IPv4的配置信息。 ### 结尾 好了,我们终于将我们运行在CentOS 7 Linux发行版上的tomcat服务器绑定到IPv4上了。尽管IPv6在不久的将来也许会得到应用,但由于现在还没有使用,如果因为将你的Tomcat服务器绑定到IPv6上而使得你的tomcat服务器不工作,就有必要将tomcat绑定到IPv4上,这也很简单。如果你有任何疑问,建议,反馈,请在下面的评论框中写下来,让我们知道有什么需要增加或者改进。非常感谢! --- via: <http://linoxide.com/linux-how-to/bind-apache-tomcat-ipv4-centos/> 作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[ictlyh](https://github.com/ictlyh) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/bind-apache-tomcat-ipv4-centos/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c4460>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,282
在 Apache、NGINX 和 Lighttpd 上启用 HTTP 公钥固定扩展(HPKP)
https://raymii.org/s/articles/HTTP_Public_Key_Pinning_Extension_HPKP.html
2015-04-16T18:27:21
[ "HTTPS", "HPKP", "HSTS" ]
https://linux.cn/article-5282-1.html
> > 编者按:前段时间,Google 报告说 CNNIC 签发的一个中级 CA 签发了一个伪造的 Google 证书,从而导致 Google 和 Mozilla 在其产品中取消了对 CNNIC 后继签发的证书信任。 > > > 本文就来讲述一下,这种伪造证书是如何被 Google 发现的,其技术机制是什么?如何在网站服务器上实现伪造证书防御和报告机制。 > > > 公钥固定(Public Key Pinning)是指一个证书链中必须包含一个白名单中的公钥,也就是说只有被列入白名单的证书签发机构(CA)才能为某个域名`*.example.com`签发证书,而不是你的浏览器中所存储的任何 CA 都可以为之签发。本文讲述了这种机制的背景知识,并提供了 Apache、 Lighttpd 和 NGINX 上的配置范例。 ![](/data/attachment/album/201504/16/182724cfrflf9lw44xxich.png) ### HTTP 公钥固定扩展 用你使用的银行做个例子,它一直使用 CA 公司 A 为其签发证书。但是在当前的证书体系下,CA 公司 B、CA 公司 C 和 NSA 的 CA 都能给你的银行创建证书,而你的浏览器会毫无疑虑的接受它们,因为这些公司都是你所信任的根 CA。 如果你的银行实现了 HPKP 并固定了它们的第一个中级证书(来自 CA 公司 A),那么浏览器将不会接受来自CA 公司 B 和 CA 公司 C 的证书,即便它们也有一个有效的信任链。HPKP 也允许你的浏览器将这种违例行为报告给该银行,以便银行知道被伪造证书攻击了。 HTTP 公钥固定扩展是一个从2011年开始开发的针对 HTTP 用户代理(即浏览器)的公钥固定标准。它由 Google 发起,甚至在 Chrome 中实现的固定机制可以使用一个人工维护的网站公钥固定列表,这个列表包含了固定的几个网站的公钥签名。(LCTT 译注:Chrome 和 FireFox 32 及以后版本都支持公钥固定机制,并使用内置的人工维护的公钥固定列表数据,这些数据随着浏览器软件的更新而更新,主要包括几个大型站点。目前还只有 Chrome 38+ 支持通过 HTTP 响应头传递公钥固定信息。) 以下是 HPKP 的几个功能简述: * HPKP 是在 HTTP 层面设置的,使用 `Public-Key-Pins` (PKP)响应头。 * 该规则的保留周期通过 max-age 参数设置,单位是秒。 * PKP 响应头只能用于正确的安全加密通讯里面。 * 如果出现了多个这样的响应头,则只处理第一个。 * 固定机制可以使用`includeSubDomains`参数扩展到子域。 * 当接收到一个新的 PKP 响应头时,它会覆盖之前存储的公钥固定和元数据。 * 公钥固定是用哈希算法生成的,其实是一个“主题公钥信息(SKPI)”指纹。 本文首先会介绍一些 HPKP 工作的原理,接下来我们会展示给你如何得到需要的指纹并配置到 web 服务器中。 ### SPKI 指纹 - 理论 以下摘自 Adam Langley 的[帖子](http://www.imperialviolet.org/2011/05/04/pinning.html),我们哈希的是一个公钥,而不是证书: > > 通常来说,对证书进行哈希是一个显而易见的解决方案,但是其实这是错的。不能这样做的原因是 CA 证书可以不断重新签发:同一个公钥、主题名可以对应多个证书,而这些证书有不同的延展或失效时间。浏览器从下至上地在证书池中构建证书链时,另外一个版本的证书可能就替代匹配了你原本所期望的证书。 > > > 举个例子,StartSSL 有两个根证书:一个是以 SHA1 签名的,另外是一个是 SHA256。如果你希望固定住 StartSSL 作为你的 CA,那么你该使用哪个证书呢?你也许可以使用这两个,但是如果我不告诉你,你怎么会知道还有一个根证书呢? > > > 相反地,对公钥进行哈希则不会有这个问题: > > > 浏览器假定子证书是固定不动的:它总是证书链的起点。子证书所携带的签名一定是一个有效的签名,它来自其父证书给这个证书专门签发的。这就是说,父证书的公钥相对于子证书来说是固定的。所以可推论公钥链是固定的。 > > > 唯一的问题是你不能固定到一个交叉认证的根证书上。举个例子,GoDaddy 的根证书是 Valicert 签名的,这是为了让那些不能识别 GoDaddy 根证书的老客户可以信任其证书。然而,你不能固定到 Valicert 上,因为新的客户在证书链上发现了 GoDaddy 证书就会停止上溯(LCTT 译注:所以就找不到固定信息了)。 > > > 此外,我们是对 SubjectPublicKeyInfo(SPKI)进行哈希而不是对公钥位串。SPKI 包括了公钥类型、公钥自身及其相关参数。这很重要,因为如果对公钥进行哈希就有可能导致发生曲解攻击。对于一个 Diffie-Hellman 公钥而言:如果仅对公钥进行哈希,而不是对完整的 SPKI,那么攻击者可以使用同样的公钥而让客户端将其解释为其它组。同样地,这样也有可能强制将一个 RSA 密钥当成 DSA 密钥解释等等。 > > > ### 固定在哪里 你应该固定在什么地方?固定你自己的公钥并不是一个最好的办法。你的密钥也许会改变或撤销。你也许会使用多个证书,经常轮换证书的话密钥就改变了。也许由于服务器被入侵而撤销证书。 最容易但是不是太安全的方法是固定第一个中级 CA 证书。该证书是签名在你的网站证书之上的,所以签发该证书的 CA 的公钥肯定是在证书链上的。 采用这种方法你可以从同一个 CA 更新你的证书而不用担心固定信息不对。如果该 CA 发行了一个不同的根证书,也许你会遇到一些问题,对此并没有太好的解决方案。不过你可以通过如下做法来减轻这种问题的影响: * 从一个不同的 CA 申请一个备用的证书,并固定该备份。 RFC 里面说你至少需要做两个固定。一个是当前连接所使用的证书链上的,另外一个是备份的。 另外的固定是对备份公钥的,它可以是来自另外一个给你签发证书的不同 CA 的 SKPI 指纹。 在这个问题上还有一种**更安全**的方法,就是事先创建好至少三个独立的公钥(使用 OpenSSL,参见[此页](https://raymii.org/s/software/OpenSSL_Command_Generator.html) 了解 Javascript OpenSSL 命令生成器),并将其中两个备份到一个安全的地方,离线存储、不要放到网上。 为这三个证书创建 SPKI 指纹并固定它们,然后仅使用第一个作为当前的证书。当需要时,你可以使用备份密钥之一。不过你需要让 CA 给你做签名来生成证书对,这可能需要几天,依你的 CA 的工作情况而定。 对于 HPKP 来说这没有问题,因为我们使用的是公钥的 SPKI 哈希,而不是证书。失效或不同的 CA 签名链并不影响。 如果你按照上述方法生成并安全存储了至少三个独立的密钥,并固定它们,也可以防止你的 CA 撤销你的网站证书并签发一个假证书时出现问题。 ### SPKI 指纹 可以使用如下的 OpenSSL 命令来生成 SPKI 指纹,它出现在 [RFC 草案](https://tools.ietf.org/html/draft-ietf-websec-key-pinning-21#appendix-A) 中: ``` openssl x509 -noout -in certificate.pem -pubkey | \ openssl asn1parse -noout -inform pem -out public.key; openssl dgst -sha256 -binary public.key | openssl enc -base64 ``` 结果: ``` klO23nT2ehFDXCfx3eHTDRESMz3asj1muO+4aIdjiuY= ``` 上面输入的 `certificate.pem` 文件是本站(https://raymii.org)的证书链中第一个证书。(在写本文时, `COMODO RSA Domain Validation Secure Server CA, 序列号 2B:2E:6E:EA:D9:75:36:6C:14:8A:6E:DB:A3:7C:8C:07` )。 你也需要同样对你的另外两个备份公钥生成指纹。 ### 故障 在写本文时(2015/1),唯一支持 HPKP 的浏览器(chrome)有一个严重的问题:Chrome 并不能够区分 HSTS 和 HPKP 响应头中的 max-age 和 includeSubdomains 参数。也就是说,如果你的 HSTS 和 HPKP 设置了不同的 max-age 和 includeSubdomains 参数,它们会互相搞乱。关于这个故障的更多信息参见:<https://code.google.com/p/chromium/issues/detail?id=444511>。感谢 Scott Helme([https://scotthelme.co.uk](https://scotthelme.co.uk/))发现并告诉我这个 Chromium 项目的问题。 ### Web 服务器配置 下面你可以看到三个主流 Web 服务器的配置方法。这只是一个 HTTP 响应头,绝大多数 Web 服务器都可以设置它。它只需要设置到 HTTPS 网站上。 下面的例子固定到 `COMODO RSA Domain Validation Secure Server CA` 及备份的 `Comodo PositiveSSL` CA 上,30天失效期,包括所有的子域。 #### Apache 编辑你的 Apache 配置文件(如 `/etc/apache2/sites-enabled/website.conf 或 /etc/apache2/httpd.conf`),并添加下列行到你的 VirtualHost 中: ``` # 如需要,载入 headers 模块。 LoadModule headers_module modules/mod_headers.so Header set Public-Key-Pins "pin-sha256=\"klO23nT2ehFDXCfx3eHTDRESMz3asj1muO+4aIdjiuY=\"; pin-sha256=\"633lt352PKRXbOwf4xSEa1M517scpD3l5f79xMD9r9Q=\"; max-age=2592000; includeSubDomains" ``` #### Lighttpd Lighttpd 更简单一些,将下列行添加到你的 Lighttpd 配置文件(如 `/etc/lighttpd/lighttpd.conf`): ``` server.modules += ( "mod_setenv" ) $HTTP["scheme"] == "https" { setenv.add-response-header = ( "Public-Key-Pins" => "pin-sha256=\"klO23nT2ehFDXCfx3eHTDRESMz3asj1muO+4aIdjiuY=\"; pin-sha256=\"633lt352PKRXbOwf4xSEa1M517scpD3l5f79xMD9r9Q=\"; max-age=2592000; includeSubDomains") } ``` #### NGINX NGINX 的配置更简短。添加以下行到你的 HTTPS 配置的 server 块中: ``` add_header Public-Key-Pins 'pin-sha256="klO23nT2ehFDXCfx3eHTDRESMz3asj1muO+4aIdjiuY="; pin-sha256="633lt352PKRXbOwf4xSEa1M517scpD3l5f79xMD9r9Q="; max-age=2592000; includeSubDomains'; ``` ### 报告功能 HPKP 报告功能允许浏览器报告任何违例给你。 如果你在响应头中添加了附加的 `report-uri="http://example.org/hpkp-report"` 参数,并用该 URI 处理接收到的数据的话,客户端会在发现违例时发送报告给你。这个报告是以 POST 方式发送到你指定的 report-uri 上,并以类似下面的 JSON 格式: ``` { "date-time": "2014-12-26T11:52:10Z", "hostname": "www.example.org", "port": 443, "effective-expiration-date": "2014-12-31T12:59:59", "include-subdomains": true, "served-certificate-chain": [ "-----BEGINCERTIFICATE-----\nMIIAuyg[...]tqU0CkVDNx\n-----ENDCERTIFICATE-----" ], "validated-certificate-chain": [ "-----BEGINCERTIFICATE-----\nEBDCCygAwIBA[...]PX4WecNx\n-----ENDCERTIFICATE-----" ], "known-pins": [ "pin-sha256=\"dUezRu9zOECb901Md727xWltNsj0e6qzGk\"", "pin-sha256=\"E9CqVKB9+xZ9INDbd+2eRQozqbQ2yXLYc\"" ] } ``` ### 非强制,只报告 HPKP 也可以设置为非强制的,可以使用 `Public-Key-Pins-Report-Only` 来只发送违例报告给你。 这样可以让你在网站不可访问或 HPKP 配置不正确时不固定,之后你可以将这个响应头改为 `Public-Key-Pins` 来强制固定。 --- via: <https://raymii.org/s/articles/HTTP_Public_Key_Pinning_Extension_HPKP.html> 作者:[Remy van Elst](https://raymii.org/) 译者:[wxy](https://github.com/wxy) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
200
OK
[Skip to main content](#main) # [Raymii.org ](https://raymii.org/s/) Quis custodiet ipsos custodes?[Home](/s/)| [About](/s/static/About.html)| [All pages](/s/tags/all.html)| [Cluster Status](/s/software/Sparkling_Network.html)| [RSS Feed](https://raymii.org/s/feed.xml) ## HTTP Public Key Pinning Extension HPKP for Apache, NGINX and Lighttpd Published: 30-12-2014 | Author: Remy van Elst | [Text only version of this article](HTTP_Public_Key_Pinning_Extension_HPKP.txt) **❗ This post is over nine years old. It may no longer be up to date. Opinions may have changed.** ### Table of Contents **Update 2018-06-12** Chrome 68 has deprecated HPKP. [Read more about it on my article](https://raymii.org/s/blog/Chrome_68_is_deprecating_HPKP.html) Public Key Pinning means that a certificate chain must include a whitelisted public key. It ensures only whitelisted Certificate Authorities (CA) can sign certificates for `*.example.com` , and not any CA in your browser store. This article has background theory and configuration examples for Apache, Lighttpd and NGINX. **Recently I removed all Google Ads from this site due to their invasive tracking, as well as Google Analytics. Please, if you found this content useful, consider a small donation using any of the options below:** [I'm developing an open source monitoring app called Leaf Node Monitoring, for windows, linux & android. Go check it out!](https://leafnode.nl) [Consider sponsoring me on Github. It means the world to me if you show your appreciation and you'll help pay the server costs.](https://github.com/sponsors/RaymiiOrg/) [You can also sponsor me by getting a Digital Ocean VPS. With this referral link you'll get $200 credit for 60 days. Spend $25 after your credit expires and I'll get $25!](https://www.digitalocean.com/?refcode=7435ae6b8212) ### HTTP Public Key Pinning Extension An example might be your bank, which always have their certificate from CA Company A. With the current certificate system, CA Company B, CA Company C and the NSA CA can all create a certificate for your bank, which your browser will hapily accept because those companies are also trusted root CA's. If the bank implements HPKP and pin's their first intermidiate certificate (from CA Company A), browsers will not accept certificates from CA Company B and CA Company C, even if they have a valid trust path. HPKP also allows your browser to report back the failure to the bank, so that they know they are under attack. Public Key Pinning Extension for HTTP (HPKP) is a standard for public key pinning for HTTP user agents that's been in development since 2011. It was started by Google, which, even though it had implemented pinning in Chrome, understood that manually maintaining a list of pinned sites can't scale. Here is a quick feature overview of HPKP: - HPKP is set at the HTTP level, using the `Public-Key-Pins` response header. - The policy retention period is set with the `max-age` parameter, it specifies duration in seconds. - The PKP header can only be used over an error-free secure encryption. - If multiple headers are seen, only the first one is processed. - Pinning can be extended to subdomains with the `includeSubDomains` parameter. - When a new PKP header is received, it overwrites previously stored pins and metadata. - A pin consists out of the hashing algorithm and an "Subject Public Key Info" fingerprint. This article first has some theory about the workings of HPKP, down below you'll find the part which shows you how to get the required fingerprints and has web server configuration. ### SPKI Fingerprint - Theory As explained by Adam Langley in [his post](http://www.imperialviolet.org/2011/05/04/pinning.html), we hash a public key, not a certificate: In general, hashing certificates is the obvious solution, but the wrong one. The problem is that CA certificates are often reissued: there are multiple certificates with the same public key, subject name etc but different extensions or expiry dates. Browsers build certificates chains from a pool of certificates, bottom up, and an alternative version of a certificate might be substituted for the one that you expect. For example, StartSSL has two root certificates: one signed with SHA1 and the other with SHA256. If you wished to pin to StartSSL as your CA, which certificate hash would you use? You would have to use both, but how would you know about the other root if I hadn't just told you? Conversely, public key hashes must be correct: Browsers assume that the leaf certificate is fixed: it's always the starting point of the chain. The leaf certificate contains a signature which must be a valid signature, from its parent, for that certificate. That implies that the public key of the parent is fixed by the leaf certificate. So, inductively, the chain of public keys is fixed, modulo truncation. The only sharp edge is that you mustn't pin to a cross-certifying root. For example, GoDaddy's root is signed by Valicert so that older clients, which don't recognise GoDaddy as a root, still trust those certificates. However, you wouldn't want to pin to Valicert because newer clients will stop their chain at GoDaddy. Also, we're hashing the SubjectPublicKeyInfo not the public key bit string. The SPKI includes the type of the public key and some parameters along with the public key itself. This is important because just hashing the public key leaves one open to misinterpretation attacks. Consider a Diffie-Hellman public key: if one only hashes the public key, not the full SPKI, then an attacker can use the same public key but make the client interpret it in a different group. Likewise one could force an RSA key to be interpreted as a DSA key etc. ### Where to Pin Where should you pin? Pinning your own public key is not the best idea. The key might change or get compromised. You might have multiple certificates in use. The key might change because you rotate your certificates every so often. It might key compromised because the web server was hacked. The easiest, but not most secure place to pin is the first intermediate CA certificate. The signature of that certificate is on your websites certificate so the issuing CA's public key must always be in the chain. This way you can renew your end certificate from the same CA and have no pinning issues. If the CA issues a different root, then you have a problem, there is no clear solution for this yet. There is one thing you can do to mitigate this: - Always have a backup pin and a spare certificate from a different CA. The RFC states that you need to provide at least two pins. One of the pins must be present in the chain used in the connection over which the pins were received, the other pin *must not* be present. This other pin is your backup public key. It can also be the SPKI fingerprint of a different CA where you have a certificate issued. An alternative and **more secure** take on this issue is to create at least three seperate public keys beforehand (using OpenSSL, see [this page](https://raymii.org/s/software/OpenSSL_Command_Generator.html) for a Javascript OpenSSL command generator) and to keep two of those keys as a backup in a safe place, offline and off-site. You create the SPKI hashes for the three certificates and pin those. You only use the first key as the active certificate. When it is needed, you can then use one of the alternative keys. You do however need to let that certificate sign by a CA to create a certificate pair and that process can take a few days depending on the certificate. This is not a problem for the HPKP because we take the SPKI hash of the public key, and not of the certificate. Expiration or a different chain of CA signer do not matter in this case. If you have the means and procedures to create and securely save at least three seperate keys as described above and pin those, it would also protect you from your CA provider getting compromised and giving out a fake certificate for your specific website. ### SPKI Fingerprint To get the SPKI fingerprint from a certificate we can use the following OpenSSL command, as shown in [the RFC draft](https://tools.ietf.org/html/draft-ietf-websec-key-pinning-21#appendix-A): ``` openssl x509 -noout -in certificate.pem -pubkey | \ openssl asn1parse -noout -inform pem -out public.key; openssl dgst -sha256 -binary public.key | openssl enc -base64 ``` Result: ``` klO23nT2ehFDXCfx3eHTDRESMz3asj1muO+4aIdjiuY= ``` The input `certificate.pem` file is the first certificate in the chain for this website. (At the time of writing, ``` COMODO RSA Domain Validation Secure Server CA ``` , Serial `2B:2E:6E:EA:D9:75:36:6C:14:8A:6E:DB:A3:7C:8C:07` .) You need to also do this with your backup public key, ending up with two fingerprints. ### Bugs At the time of writing this article (2015-Jan) the only browser supporting HPKP (Chrome) has a serious issue where Chrome doesn't treat the max-age and includeSubdomains directives from HSTS and HPKP headers as mutually exclusive. This means that if you have HSTS and HPKP with different policiesfor max-age or includeSubdomains they will be interchanged. See this bug for more info: [https://code.google.com/p/chromium/issues/detail?id=444511](https://code.google.com/p/chromium/issues/detail?id=444511). Thanks to Scott Helme from [https://scotthelme.co.uk](https://scotthelme.co.uk) for finding and notifying me and the Chromium project about it. ### Webserver configuration Below you'll find configuration instructions for the three most populair web servers. Since this is just a HTTP header, almost all web servers will allow you to set this. It needs to be set for the HTTPS website. The example below pins the `COMODO RSA Domain Validation Secure Server CA` and the `Comodo PositiveSSL CA 2` as a backup, with a 30 day expire time including all subdomains. #### Apache Edit your apache configuration file (`/etc/apache2/sites-enabled/website.conf` or `/etc/apache2/httpd.conf` for example) and add the following to your `VirtualHost` : ``` # Optionally load the headers module: LoadModule headers_module modules/mod_headers.so Header set Public-Key-Pins "pin-sha256=\"klO23nT2ehFDXCfx3eHTDRESMz3asj1muO+4aIdjiuY=\"; pin-sha256=\"633lt352PKRXbOwf4xSEa1M517scpD3l5f79xMD9r9Q=\"; max-age=2592000; includeSubDomains" ``` #### Lighttpd The lighttpd variant is just as simple. Add it to your Lighttpd configuration file (`/etc/lighttpd/lighttpd.conf` for example): ``` server.modules += ( "mod_setenv" ) $HTTP["scheme"] == "https" { setenv.add-response-header = ( "Public-Key-Pins" => "pin-sha256=\"klO23nT2ehFDXCfx3eHTDRESMz3asj1muO+4aIdjiuY=\"; pin-sha256=\"633lt352PKRXbOwf4xSEa1M517scpD3l5f79xMD9r9Q=\"; max-age=2592000; includeSubDomains") } ``` #### NGINX NGINX is even shorter with its config. Add this in the server block for your HTTPS configuration: ``` add_header Public-Key-Pins 'pin-sha256="klO23nT2ehFDXCfx3eHTDRESMz3asj1muO+4aIdjiuY="; pin-sha256="633lt352PKRXbOwf4xSEa1M517scpD3l5f79xMD9r9Q="; max-age=2592000; includeSubDomains'; ``` ### Reporting HPKP reporting allows the user-agent to report any failures back to you. If you add an aditional `report-uri="http://example.org/hpkp-report"` parameter to the header and set up a listener there, clients will send reports if they encounter a failure. A report is sent as a POST request to the `report-uri` with a JSON body like this: ``` { "date-time": "2014-12-26T11:52:10Z", "hostname": "www.example.org", "port": 443, "effective-expiration-date": "2014-12-31T12:59:59", "include-subdomains": true, "served-certificate-chain": [ "-----BEGINCERTIFICATE-----\nMIIAuyg[...]tqU0CkVDNx\n-----ENDCERTIFICATE-----" ], "validated-certificate-chain": [ "-----BEGINCERTIFICATE-----\nEBDCCygAwIBA[...]PX4WecNx\n-----ENDCERTIFICATE-----" ], "known-pins": [ "pin-sha256=\"dUezRu9zOECb901Md727xWltNsj0e6qzGk\"", "pin-sha256=\"E9CqVKB9+xZ9INDbd+2eRQozqbQ2yXLYc\"" ] } ``` ### No Enforcment, report only HPKP can be set up without enforcement, in reporting mode by using the ``` Public- Key-Pins-Report-Only ``` response header. This approach allows you to set up pinning without your site being unreachable or HPKP being configured incorrectly. You can later move to enforcement by changing the header back to `Public-Key-Pins` . [apache](../tags/apache.html), [articles](../tags/articles.html), [hpkp](../tags/hpkp.html), [https](../tags/https.html), [lighttpd](../tags/lighttpd.html), [nginx](../tags/nginx.html), [security](../tags/security.html), [ssl](../tags/ssl.html), [tls](../tags/tls.html)
5,303
10个所需的IT技能,助你职场成功
http://www.tecmint.com/famous-it-skills-in-demand-that-will-get-you-hired/
2015-04-19T09:54:00
[ "工作", "招聘" ]
https://linux.cn/article-5303-1.html
在本篇中,我们将指点顶尖的IT技能,这会帮助你找到理想的工作。这些资料和统计结果是会伴随市场和需求的变化而变化的。只要有任何主要的变化,我们会尽可能地更新列表。所有的统计数据基于最近的,全球一些IT公司的招聘信息和需求。 ![](/data/attachment/album/201504/18/225806hh6f6nooonlcna2o.jpg) ### 1. VMware VMware公司设计的虚拟化和云计算软件高居榜首。VMware首次宣布商业支持x86架构的虚拟化。VMware的招聘需求在上个季度已经增长至16%。 最新稳定发行版: 11.0 ### 2. MySQL 这款开源的关系型数据库管理系统憾居第二。直到2013年,MySQL都还是第二大使用广泛的RDBMS(注:Relational Database Management System)。上季度MySQL的招聘需求已经达到了11%。非常著名的MarialDB就是来自被甲骨文公司收购之后的MySQL的分支。值得掌握。 最新稳定发行版: 5.6.23 ### 3. Apache 这个跨平台的开源网页(HTTP)服务器位居第三。截至上个季度,Apache的招聘需求已经超过了13%。 最新稳定发行版: 2.4.12 ### 4. AWS AWS是亚马逊网站提供的所有远程计算服务的集合,AWS排在第四位。上个季度,AWS的招聘需求已经呈现出将近14%的增长。 ### 5. Puppet Puppet作为配置管理系统被应用在设置IT基础架构,它排在第五位。它用Ruby语言编写,属于客户端-服务器型的结构。上个季度puppet的招聘需求已经增长超过9%。 最新稳定发行版: 3.7.3 ### 6. Hadoop Hadoop是用Java编写的一款开源软件框架,用于处理大数据。列表中Hadoop位列第六。对Hadoop的招聘需求在上个季度已经下降了0.2个百分点。 最新稳定发行版: 2.6.0 ### 7. Git Linux Torvalds最初编写的著名版本控制系统Git排在了第七。Git的招聘需求在上个季度已经超过了7%。 最新稳定发行版: 2.3.4 ### 8. Oracle PL/SQL Oracle公司开发的SQL扩展版,占据第八的位置。PL/SQL从Oracle 7后就包含在Oracle数据库中。它在上个季度已经呈现将近8%的衰退。 ### 9. Tomcat 这个开源网页服务器和服务程序容器出现在了第九的位置。在上个季度,它已经表现出需求增长,将近15%。 最新稳定发行版: 8.0.15 ### 10. SAP 这款最著名的企业资源规划软件排在了第十。上个季度SAP在需求市场表现出将近3.5%的增长。 具体数据表格如下: | 1. | VMware | **16% +** | | 2. | MySQL | **11% +** | | 3. | Apache | **13% +** | | 4. | Amazon web services (AWS) | **14% +** | | 5. | Puppet | **9% +** | | 6. | Hadoop | **0.2% +** | | 7. | Git | **7% +** | | 8. | Oracle PL/SQL | **8% -** | | 9. | Tomcat | **15% +** | | 10. | SAP | **3.5% +** | 这篇文章就到这里,我会积极跟进这个系列的下一部分。敬请期待,保持联系,积极评论。不要忘了给我们提供你的反馈。喜欢的话就分享吧,让更多人认识我们。 --- via: <http://www.tecmint.com/famous-it-skills-in-demand-that-will-get-you-hired/> 作者:[Avishek Kumar](http://www.tecmint.com/author/avishek/) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[Caroline](https://github.com/carolinewuyan) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,304
如何在Docker容器中运行GUI程序
http://linoxide.com/linux-how-to/run-gui-apps-docker-container/
2015-04-20T08:10:00
[ "Docker", "GUI" ]
/article-5304-1.html
各位,今天我们将学习如何在[Docker](http://docker.io/)之中运行GUI程序。我们可以轻易地在Docker容器中运行大多数GUI程序且不出错。Docker是一个开源项目,提供了一个打包、分发和运行任意程序的轻量级容器的开放平台。它没有语言支持、框架或者打包系统的限制,并可以运行在任何地方、任何时候,从小型的家用电脑到高端的服务器都可以运行。这让人们可以打包不同的包用于部署和扩展网络应用,数据库和后端服务而不必依赖于特定的栈或者提供商。 ![](/data/attachment/album/201504/18/232858p2oz2upa22bpwa22.jpg) 下面是我们该如何在Docker容器中运行GUI程序的简单步骤。本教程中,我们会用Firefox作为例子。 ### 1. 安装 Docker 在开始前,我们首先得确保在Linux主机中已经安装了Docker。这里,我运行的是CentOS 7 主机,我们将运行yum管理器和下面的命令来安装Docker。 ``` # yum install docker ``` ![](/data/attachment/album/201504/18/232901gojxj1juj5ayuvft.png) ``` # systemctl restart docker.service ``` ### 2. 创建 Dockerfile 现在,Docker守护进程已经在运行中了,我们现在准备创建自己的Firefox Docker容器。我们要创建一个Dockerfile,在其中我们要输入需要的配置来创建一个可以工作的Firefox容器。为了运行 Docker 镜像我们需要使用最新版本的CentOS。要创建 Docker 镜像,我们需要用文本编辑器创建一个名为Dockerfile的文件。 ``` # nano Dockerfile ``` 接着,在Dockerfile中添加下面的行并保存。 ``` #!/bin/bash FROM centos:7 RUN yum install -y firefox # 用你自己的 uid /gid 替换下面的0 RUN export uid=0 gid=0 RUN mkdir -p /home/developer RUN echo "developer:x:${uid}:${gid}:Developer,,,:/home/developer:/bin/bash" >> /etc/passwd RUN echo "developer:x:${uid}:" >> /etc/group RUN echo "developer ALL=(ALL) NOPASSWD: ALL" >> /etc/sudoers RUN chmod 0440 /etc/sudoers RUN chown ${uid}:${gid} -R /home/developer USER developer ENV HOME /home/developer CMD /usr/bin/firefox ``` ![](/data/attachment/album/201504/18/232902cstspczpmq4lssls.png) **注意:在第四行的配置中,用你自己的用户和组id来替换0。 我们可以用下面的命令在shell或者终端中得到uid和gid。** ``` # id $USER ``` ![](/data/attachment/album/201504/18/232902nggp9cwomzg97un7.png) ### 3. 构造Docker容器 下面我们就要根据上面的Dockerfile构建一个容器。它会安装firefox浏览器和它需要的包。它接着会设置用户权限并让它可以工作。这里镜像名是firefox,你可以根据你的需要命名。 ``` # docker build --rm -t firefox . ``` ![](/data/attachment/album/201504/18/232903omy6qvvfqaamh5a1.png) ### 4. 运行Docker容器 现在,如果一切顺利,我们现在可以在运行在CentOS 7镜像中的Docker容器里面运行我们的GUI程序也就是Firefox浏览器了。 ``` # docker run -ti --rm -e DISPLAY=$DISPLAY -v /tmp/.X11-unix:/tmp/.X11-unix firefox ``` ### 总结 在Docker容器中运行GUI程序是一次很棒的体验,它对你的主机文件系统没有任何的伤害。它完全依赖你的Docker容器。本教程中,我尝试了CentOS 7 Docker中的Firefox。我们可以用这个技术尝试更多的GUI程序。如果你有任何问题、建议、反馈请在下面的评论栏中写下来,这样我们可以提升或更新我们的内容。谢谢! --- via: <http://linoxide.com/linux-how-to/run-gui-apps-docker-container/> 作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /linux-how-to/run-gui-apps-docker-container/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c5150>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,310
在 Ubuntu14.10/Mint7 上安装 Gnome Flashback 经典桌面
http://www.binarytides.com/install-gnome-flashback-ubuntu/
2015-04-20T13:40:00
[ "桌面", "Gnome Flashback" ]
https://linux.cn/article-5310-1.html
如果你不喜欢现在的Unity桌面,[Gnome Flashback](https://wiki.gnome.org/action/show/Projects/GnomeFlashback?action=show&redirect=GnomeFlashback)桌面环境是一个简单的并且很棒的选择,让你能找回曾经经典的桌面。 Gnome Flashback基于GTK3并提供与原先gnome桌面视觉上相似的界面。 Gnome Flashback的另一个改变是采用了源自mint和xface的MATE桌面,但无论mint还是xface都是基于GTK2的。 ### 安装 Gnome Flashback 在你的ubuntu上安装以下包即可: ``` $ sudo apt-get install gnome-session-flashback ``` 然后注销返回到登录界面,单击密码输入框右上角的徽标型按钮,即可选择桌面环境。可供选择的有Gnome Flashback (Metacity) 会话模式和Gnome Flashback (Compiz)会话模式。 Metacity更轻更快,而Compiz则能带给你更棒的桌面效果。下面是我使用gnome flashback桌面的截图。 桌面采用了elementary OS的壁纸和Plank dock并且移除了底部面板。这些都会在这篇教程中涉及到。 ![](/data/attachment/album/201504/20/134422exq411ycntc1rrv7.jpg) 在安装好gnome flashback桌面以后也许你对效果还不满意,这样你可能需要执行接下来的一系列操作来对它进行微调。 ### 1. 安装 Gnome Tweak Tool Gnome Tweak Tool能够帮助你定制比如字体、主题等,这些在Unity桌面的控制中心是十分困难,几乎不可能完成的任务。 ``` $ sudo apt-get install gnome-tweak-tool ``` 启动按步骤: 应用程序 > 系统工具 > 首选项 > Tweak Tool ### 2. 在面板上添加小应用 默认的右键点击面板是没有效果的。你可以尝试在右键点击面板的同时按住键盘上的Alt+Super (win)键,这样就会出现定制面板的相关选项。 你可以修改或删除面板,并在上面添加些小应用。在这个例子中我们移除了底部面板,并用Plank dock来代替它的位置。 在顶部面板的中间添加一个显示时间的小应用。通过配置使它显示时间和天气。 同样的添加一个工作空间切换器到顶部面板,并创建合适个数的工作空间。 ### 3. 将窗口标题栏的按钮右置 在ubuntu中,最小化、最大化和关闭按钮默认是在标题栏左侧的。需要稍作手脚才能让他们乖乖回到右边去。 想让窗口的按钮到右边可以使用下面的命令,这是我在askubuntu上找到的。 ``` $ gsettings set org.gnome.desktop.wm.preferences button-layout 'menu:minimize,maximize,close' ``` ### 4.安装 Plank dock plank dock位于屏幕底部,用于启动应用和切换打开的窗口。它会在必要的时间隐藏自己,并在需要的时候出现。elementary OS使用的dock就是plank dock。 运行以下命令安装: ``` $ sudo add-apt-repository ppa:ricotz/docky -y $ sudo apt-get update $ sudo apt-get install plank -y ``` 现在启动:应用程序 > 附件 > Plank。若想让它开机自动启动,找到 应用程序 > 系统工具 > 首选项 > 启动应用程序 并将“plank”的命令加到列表中。 ### 5. 安装 Conky 系统监视器 Conky非常酷,它用系统的中如CPU和内存使用率的统计值来装饰桌面。它不太占资源,并且绝大部分情况下运行都不会有什么问题。 运行如下命令安装: ``` $ sudo apt-add-repository -y ppa:teejee2008/ppa $ sudo apt-get update $ sudo apt-get install conky-manager ``` 现在启动:应用程序 > 附件 > Conky Manager ,选择你想在桌面上显示的部件。Conky Manager同样可以配置到启动项中。 ### 6. 安装CCSM 如果你更愿意使用Gnome Flashback (Compiz),那么CCSM将是你配置桌面特效的得力助手。 运行以下命令安装: ``` $ sudo apt-get install compizconfig-settings-manager ``` 启动按步骤: 应用程序 > 系统工具 > 首选项 > CompizConfig Settings Manager. > > 在虚拟机中经常会发生compiz会话中装饰窗口消失。可以通过启动Compiz设置,并启用"Copy to texture"插件,注销后重新登录即可。 > > > 不过值得一提的是Compiz 会话会比Metacity慢。 --- via: <http://www.binarytides.com/install-gnome-flashback-ubuntu/> 作者:[Silver Moon](https://plus.google.com/117145272367995638274/posts) 译者:[martin2011qi](https://github.com/martin2011qi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,311
Linux Shell脚本面试25问
http://www.linuxtechi.com/linux-shell-scripting-interview-questions-answers/
2015-04-20T15:02:00
[]
https://linux.cn/article-5311-1.html
![](/data/attachment/album/201504/20/150204htfznh8zzw3alua8.jpg) ### Q:1 Shell脚本是什么、它是必需的吗? 答:一个Shell脚本是一个文本文件,包含一个或多个命令。作为系统管理员,我们经常需要使用多个命令来完成一项任务,我们可以添加这些所有命令在一个文本文件(Shell脚本)来完成这些日常工作任务。 ### Q:2 什么是默认登录shell,如何改变指定用户的登录shell 答:在Linux操作系统,“/bin/bash”是默认登录shell,是在创建用户时分配的。使用chsh命令可以改变默认的shell。示例如下所示: ``` # chsh <用户名> -s <新shell> # chsh linuxtechi -s /bin/sh ``` ### Q:3 可以在shell脚本中使用哪些类型的变量? 答:在shell脚本,我们可以使用两种类型的变量: * 系统定义变量 * 用户定义变量 系统变量是由系统系统自己创建的。这些变量通常由大写字母组成,可以通过“**set**”命令查看。 用户变量由系统用户来生成和定义,变量的值可以通过命令“`echo $<变量名>`”查看。 ### Q:4 如何将标准输出和错误输出同时重定向到同一位置? 答:这里有两个方法来实现: 方法一: ``` 2>&1 (如# ls /usr/share/doc > out.txt 2>&1 ) ``` 方法二: ``` &> (如# ls /usr/share/doc &> out.txt ) ``` ### Q:5 shell脚本中“if”语法如何嵌套? 答:基础语法如下: ``` if [ 条件 ] then 命令1 命令2 ….. else if [ 条件 ] then 命令1 命令2 …. else 命令1 命令2 ….. fi fi ``` ### Q:6 shell脚本中“$?”标记的用途是什么? ? 答:在写一个shell脚本时,如果你想要检查前一命令是否执行成功,在if条件中使用“$?”可以来检查前一命令的结束状态。简单的例子如下: ``` root@localhost:~# ls /usr/bin/shar /usr/bin/shar root@localhost:~# echo $? 0 ``` 如果结束状态是0,说明前一个命令执行成功。 ``` root@localhost:~# ls /usr/bin/share ls: cannot access /usr/bin/share: No such file or directory root@localhost:~# echo $? 2 ``` 如果结束状态不是0,说明命令执行失败。 ### Q:7 在shell脚本中如何比较两个数字 ? 答:在if-then中使用测试命令( -gt 等)来比较两个数字,例子如下: ``` #!/bin/bash x=10 y=20 if [ $x -gt $y ] then echo “x is greater than y” else echo “y is greater than x” fi ``` ### Q:8 shell脚本中break命令的作用 ? 答:break命令一个简单的用途是退出执行中的循环。我们可以在while和until循环中使用break命令跳出循环。 ### Q:9 shell脚本中continue命令的作用 ? 答:continue命令不同于break命令,它只跳出当前循环的迭代,而不是**整个**循环。continue命令很多时候是很有用的,例如错误发生,但我们依然希望继续执行大循环的时候。 ### Q:10 告诉我shell脚本中Case语句的语法 ? 答:基础语法如下: ``` case 变量 in 值1) 命令1 命令2 ….. 最后命令 !! 值2) 命令1 命令2 …… 最后命令 ;; esac ``` ### Q:11 shell脚本中while循环语法 ? 答:如同for循环,while循环只要条件成立就重复它的命令块。不同于for循环,while循环会不断迭代,直到它的条件不为真。基础语法: ``` while [ 条件 ] do 命令… done ``` ### Q:12 如何使脚本可执行 ? 答:使用chmod命令来使脚本可执行。例子如下: ``` # chmod a+x myscript.sh ``` ### Q:13 “#!/bin/bash”的作用 ? 答:#!/bin/bash是shell脚本的第一行,称为释伴(shebang)行。这里#符号叫做hash,而! 叫做 bang。它的意思是命令通过 /bin/bash 来执行。 ### Q:14 shell脚本中for循环语法 ? 答:for循环的基础语法: ``` for 变量 in 循环列表 do 命令1 命令2 …. 最后命令 done ``` ### Q:15 如何调试shell脚本 ? 答:使用'-x'参数(sh -x myscript.sh)可以调试shell脚本。另一个种方法是使用‘-nv’参数( sh -nv myscript.sh)。 ### Q:16 shell脚本如何比较字符串? 答:test命令可以用来比较字符串。测试命令会通过比较字符串中的每一个字符来比较。 ### Q:17 Bourne shell(bash) 中有哪些特殊的变量 ? 答:下面的表列出了Bourne shell为命令行设置的特殊变量。 | 内建变量 | 解释 | | $0 | 命令行中的脚本名字 | | $1 | 第一个命令行参数 | | $2 | 第二个命令行参数 | | ….. | ……. | | $9 | 第九个命令行参数 | | $# | 命令行参数的数量 | | $\* | 所有命令行参数,以空格隔开 | ### Q:18 How to test files in a shell script ? ### Q:18 在shell脚本中,如何测试文件 ? 答:test命令可以用来测试文件。基础用法如下表格: | Test | 用法 | | -d 文件名 | 如果文件存在并且是目录,返回true | | -e 文件名 | 如果文件存在,返回true | | -f 文件名 | 如果文件存在并且是普通文件,返回true | | -r 文件名 | 如果文件存在并可读,返回true | | -s 文件名 | 如果文件存在并且不为空,返回true | | -w 文件名 | 如果文件存在并可写,返回true | | -x 文件名 | 如果文件存在并可执行,返回true | ### Q:19 在shell脚本中,如何写入注释 ? 答:注释可以用来描述一个脚本可以做什么和它是如何工作的。每一行注释以#开头。例子如下: ``` #!/bin/bash # This is a command echo “I am logged in as $USER” ``` ### Q:20 如何让 shell 就脚本得到来自终端的输入? 答:read命令可以读取来自终端(使用键盘)的数据。read命令得到用户的输入并置于你给出的变量中。例子如下: ``` # vi /tmp/test.sh #!/bin/bash echo ‘Please enter your name’ read name echo “My Name is $name” # ./test.sh Please enter your name LinuxTechi My Name is LinuxTechi ``` ### Q:21 如何取消变量或取消变量赋值 ? 答:“unset”命令用于取消变量或取消变量赋值。语法如下所示: ``` # unset <变量名> ``` ### Q:22 如何执行算术运算 ? 答:有两种方法来执行算术运算: 1.使用`expr`命令(# expr 5 + 2) 2.用一个美元符号和方括号(`$[ 表达式 ]`)例如:test=$[16 + 4] ; test=$[16 + 4] ### Q:23 do-while语句的基本格式 ? 答:do-while语句类似于while语句,但检查条件语句之前先执行命令(LCTT 译注:意即至少执行一次。)。下面是用do-while语句的语法 ``` do { 命令 } while (条件) ``` ### Q:24 在shell脚本如何定义函数呢 ? 答:函数是拥有名字的代码块。当我们定义代码块,我们就可以在我们的脚本调用函数名字,该块就会被执行。示例如下所示: ``` $ diskusage () { df -h ; } 译注:下面是我给的shell函数语法,原文没有 [ function ] 函数名 [()] { 命令; [return int;] } ``` ### Q:25 如何在shell脚本中使用BC(bash计算器) ? 答:使用下列格式,在shell脚本中使用bc: ``` variable=`echo “options; expression” | bc` ``` (题图来自:wonderhowto.com) --- via: <http://www.linuxtechi.com/linux-shell-scripting-interview-questions-answers/> 作者:[Pradeep Kumar](http://www.linuxtechi.com/author/pradeep/) 译者:[VicYu/Vic020](http://vicyu.net) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
301
Moved Permanently
null
5,312
Linux有问必答:如何在树莓派上安装USB网络摄像头
http://ask.xmodulo.com/install-usb-webcam-raspberry-pi.html
2015-04-20T17:38:00
[ "树莓派", "摄像头" ]
/article-5312-1.html
> > **Question**: 我可以在树莓派上使用标准的USB网络摄像头么?我该如何检查USB网络摄像头与树莓派是否兼容?另外我该如何在树莓派上安装它? > > > 如果你想在树莓上拍照或者录影,你可以安装[树莓派的摄像头板](http://xmodulo.com/install-raspberry-pi-camera-board.html)。如果你不想要为摄像头模块花费额外的金钱,那有另外一个方法,就是你常见的[USB 摄像头](http://xmodulo.com/go/usb_webcam)。你可能已经在PC上安装过了。 ![](/data/attachment/album/201504/20/154051paxqqq020qjsyq02.jpg) 本教程中,我会展示如何在树莓派上设置摄像头。我们假设你使用的系统是Raspbian。 在此之前,你最好检查一下你的摄像头是否在[这些](http://elinux.org/RPi_USB_Webcams)已知与树莓派兼容的摄像头之中。如果你的摄像头不在这个兼容列表中,不要丧气,仍然有可能树莓派能检测到你的摄像头。 ### 检查USB摄像头是否雨树莓派兼容 要检查你的摄像头是否可以被树莓派检测到,将它插入到树莓派的USB口中,然后输入下面的命令。 ``` $ lsusb ``` 如果输出中没有你的摄像头,那么有可能你的树莓派的电源无法供应足够的电力给你的摄像头。这时你可以给你的摄像头用独立的电源线,比如[有源USB hub](http://xmodulo.com/go/usb_powerhub),并重新输入lsusb命令。如果摄像头还是不能被识别,我们只有建议你购买其他树莓派支持的摄像头了。 ![](/data/attachment/album/201504/20/154057zp3w3go3vvizbrlq.png) 在上面的截屏中,USB摄像头被识别为“1e4e:0102”,但是没有显示摄像头的制造商。当你在笔记本的Fedora 20中使用它时,它可以成功的检测到“1e4e:0102 Cubeternet GL-UPC822 UVC WebCam”。 另外一个可以检查摄像头是否被树莓派支持的方法是检查/dev目录。如果有/dev/video0,那么这暗示树莓派支持你的摄像头。 ### 用USB Webcam拍照片 当USB摄像头成功挂载到树莓派上之后,下一步就是拍一些照片来验证它的功能了。 要想拍摄照片,你要安装fswebcam,这是一款小型摄像头程序。你可以直接通过Raspbian的仓库来安装fswebcam。 ``` $ sudo apt-get install fswebcam ``` fswebcam安装完成后,在终端中运行下面的命令来抓去一张来自摄像头的照片: ``` $ fswebcam --no-banner -r 640x480 image.jpg ``` 这条命令可以抓取一张640x480分辨率的照片,并且用jpg格式保存。它不会在照片的底部留下任何水印. ![](/data/attachment/album/201504/20/154058ks2w6tvt2zv4t9dw.png) 这就是fswebcam下640x480分辨率的结果。 ![](/data/attachment/album/201504/20/154101xirnnyn1n333rd18.jpg) 下面的例子是没有定义分辨率的照片。图片是偏蓝的,并且默认的分辨率是358x288。 ![](/data/attachment/album/201504/20/154104p3z35u0apovnzk3o.jpg) --- via: <http://ask.xmodulo.com/install-usb-webcam-raspberry-pi.html> 作者:[Kristophorus Hadiono](http://ask.xmodulo.com/author/kristophorus) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='ask.xmodulo.com', port=80): Max retries exceeded with url: /install-usb-webcam-raspberry-pi.html (Caused by NameResolutionError("<urllib3.connection.HTTPConnection object at 0x7b83275c5660>: Failed to resolve 'ask.xmodulo.com' ([Errno -2] Name or service not known)"))
null
5,313
如何在 Ubuntu 中再次登录时还原上次运行的应用
http://linoxide.com/ubuntu-how-to/remember-running-applications-ubuntu/
2015-04-20T19:01:00
[ "休眠", "恢复" ]
/article-5313-1.html
在你的 Ubuntu 里,如果你需要处理一些工作,你并不需要关闭正运行着的那些应用,只需要管理一下窗口,并打开那些工作需要的应用就行。然而,如果你需要离开处理些别的事情或你的机器电量低使得你必须马上关闭电脑,这些程序可能就需要关闭终止了。不过幸运的是,你可以让 Ubuntu 记住所有你正运行的应用并在你下一次登录时还原它们。 ![](/data/attachment/album/201504/20/160603toj0pm722q7ag72a.png) ### 自动保存会话 现在,为了让我们的 Ubuntu 记住当前会话中正运行的应用并在我们下一次登录时还原它们,我们将会使用到 `dconf-editor`。这个工具代替了前一个 Ubuntu 版本里安装的 `gconf-editor`,但默认情况下现在这个 Ubuntu 版本(注:这里指的是 Ubuntu 14.04 LTS) 并没有安装。为了安装 `dconf-editor`, 你需要运行 `sudo apt-get install dconf-editor`命令: ``` $ sudo apt-get install dconf-tools ``` 一旦 `dconf-editor` 安装完毕,你就可以从应用菜单(注:这里指的是 Unity Dash)里打开它,或者你可以通过直接在终端里运行,或使用 `alt+f2` 运行下面的命令来启动它: ``` $ dconf-editor ``` 在 “dconf Editor” 窗口中,在左边窗格里点击临近 "org" 的右箭头来展开这个选项的分支。 ![Dconf Editor Apps, org](/data/attachment/album/201504/20/160605vu4kr5kkhru305uk.png) 然后在 “org” 下,点击临近 “gnome” 的右箭头。 ![dconf editor clicking gnome](/data/attachment/album/201504/20/160606lzrrfrarfws6gcrd.png) 接着在 “gnome” 下点击 “gnome-session”。在右边窗格里,选择 “auto-save-session” 选项框并将它开启。 ![dconf-editor selecting auto save session](/data/attachment/album/201504/20/160607x5lzd5o56ydaracg.png) 在你确认对刚才的选项打钩之后,点击默认情况下位于窗口左上角的关闭按钮(X)来关闭 “Dconf Editor”。 ![dconf-editor closing dconf editor](/data/attachment/album/201504/20/160607s64e89pp44euz44d.png) 在你登出并再登录回来时,所有你正运行的应用就可以被还原了。 欢呼吧,我们已经成功地配置了我们的 Ubuntu 14.04 LTS "Trusty" 来自动记住我们上一次会话中正在运行的应用。 除了关机后恢复应用之外,还可以通过休眠来达成类似的功能。 ### 休眠功能 现在,在这个教程里,我们也将学会 **如何在 Ubuntu 14.04 LTS 里开启休眠功能** : 在开始之前,在键盘上按 `Ctrl+Alt+T` 来开启终端。在它开启以后,运行: ``` sudo pm-hibernate ``` 在你的电脑关闭后,再重新开启它。这时,你开启的应用被重新打开了吗?如果休眠功能没有发挥作用,请检查你的交换分区大小,它至少要和你可用 RAM 大小相当。 你可以在系统监视器里查看你的交换分区大小,系统监视器可以通过在应用菜单或在终端里运行下面的命令来开启: ``` $ gnome-system-monitor ``` #### 在系统托盘里启用休眠功能: 系统托盘里面的会话指示器现在使用 logind 而不是 upower 了。默认情况下,在 upower 和 logind 中,休眠菜单都被禁用了。 为了开启它的休眠菜单,依次运行下面的命令来编辑配置文件: ``` sudo -i cd /var/lib/polkit-1/localauthority/50-local.d/ gedit com.ubuntu.enable-hibernate.pkla ``` **提示:假如对你来说,这个配置文件并没有起到作用,请替换上面代码中的 /var/lib 为 /etc 来试试另一个配置文件** 复制并粘贴下面的代码到文件中并保存: ``` [Re-enable hibernate by default in upower] Identity=unix-user:* Action=org.freedesktop.upower.hibernate ResultActive=yes [Re-enable hibernate by default in logind] Identity=unix-user:* Action=org.freedesktop.login1.hibernate ResultActive=yes ``` 重启你的电脑就可以了。 #### 当你盖上笔记本的后盖时,让它休眠: 1. 通过下面的命令编辑文件 “/etc/systemd/logind.conf” : ``` $ sudo nano /etc/systemd/logind.conf ``` 2. 将 **#HandleLidSwitch=suspend** (挂起)这一行改为 **HandleLidSwitch=hibernate** (休眠)并保存文件; 3. 运行下面的命令或重启你的电脑来应用更改: ``` $ sudo restart systemd-logind ``` 就是这样。 成功了吗?现在我们设置了 dconf 并开启了休眠功能 :) 这样,无论你是关机还是直接合上笔记本盖子,你的 Ubuntu 将能够完全记住你开启的应用和窗口了。 --- via: <http://linoxide.com/ubuntu-how-to/remember-running-applications-ubuntu/> 作者:[Arun Pyasi](http://linoxide.com/author/arunp/) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /ubuntu-how-to/remember-running-applications-ubuntu/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c5480>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,314
直击 Elementary OS 0.3 Freya - 下载和安装指南
http://linoxide.com/ubuntu-how-to/elementary-os-0-3-freya-install-guide/
2015-04-21T08:16:00
[ "Elementary OS" ]
/article-5314-1.html
Elementary OS是一个以Ubuntu为基础的轻量级操作系统,广受欢迎。目前已经发行了三个版本,而第四个版本将会以即将到来的Ubuntu16.04为基础开发。 * **Jupiter (0.1)**: 第一个Elementary OS稳定发行版基于Ubuntu 10.10,在2011年三月发布。 * **Luna (0.2)**: 第二个Elementary OS稳定发行版基于Ubuntu 12.04,于2012年11月发布。 * **Freya (0.3)**: 第三个Elementary OS稳定发行版基于Ubuntu 14.04的,2015年二月8号发布。 * **Loki (0.4)**: 未来Elementary OS第四版,计划以Ubuntu16.04为基础,并且提供更新服务直到2021年。 Freya是目前最新的Elementary OS版本(0.3)。最初是被命名为ISIS,但是后来改了,是为了避免与同名的恐怖组织产生任何的联系。Freya有一些非常不错的预装应用。 ![](/data/attachment/album/201504/20/223120m4mqoryw6r4yzpci.png) ### 突出的特性 这里列举了一些特性,但并非Elementary OS 0.3的所有特性。 * 更好的交互性消息通知,可在通知设定面板设定系统级别的“Do Not Disturb(不要打扰)”模式。 * 最新版Elementary OS提供更好的emoji表情支持,及内置替换了网页应用中的微软核心字体。 * “隐私模式”是一个新的防火墙工具,易于使用,可以帮助保护电脑免遭恶意脚本和应用的攻击。 * 统一风格的登入和锁定界面。 * 改进了界面效果和功能的应用中心菜单,包括快速操作列表,搜索拖放,支持快速数学计算。 * 重新设计的多任务视图提供了更多以应用为中心的功能。 * 更新了软件栈(Linux 3.16, Gtk 3.14 和Vala 0.26),更好的支持和增强了最新开发的应用。 * 支持UEFI。 * 通过新的联网助手,WiFi连接变得更容易。 ### 下载64位&32位版本 * [Elementary OS Freya 64 bit](http://sourceforge.net/projects/elementaryos/files/stable/elementaryos-freya-amd64.20150411.iso/download) * [Elementary OS Freya 32 bit](http://sourceforge.net/projects/elementaryos/files/stable/elementaryos-freya-i386.20150411.iso/download) ### 安装Elementary OS 0.3 (Freya) 下载Elementary OS 0.3的ISO文件,并且写入到一个USB启动盘或者DVD/CD。支持32位和64位的架构。当计算机从Elementary OS ISO文件启动后,有两个选项可用,不安装而仅试用,或直接安装到计算机里。这里选择第二项。Elmentary OS也可以与已有操作系统并存安装,构成双重启动。 ![Install Freya](/data/attachment/album/201504/20/223125v031nyxhznxj2jjj.png) 在进行下面的步骤之前会检查系统要求和资源有效性。如果你的系统有足够的资源,点击继续。 ![Installation Requirements](/data/attachment/album/201504/20/223125s96wdf9nimckcmkg.png) 安装向导提供许多安装形式。选取最适合你的选项,通常大多数都选用第一个选项:“擦除磁盘以安装elementary”。选择该选项,必须保证你的原有数据都已经正确备份了,因为磁盘(分区)擦除后,其上所有的数据就会丢失。 ![Installation Types](/data/attachment/album/201504/20/223126fn0n24z8in8y4yfv.png) 接下来的对话框显示了Elementary OS所使用和需要格式化的磁盘分区列表,确保数据完整后点击继续。 ![Format Warning](/data/attachment/album/201504/20/223126ynu7tmjb9bu6j1ez.png) 选择你的地理位置,确定时区,点击继续。 ![Location](/data/attachment/album/201504/20/223129ecxy8g14ss1js5f8.png) 选择你的语言,点击继续。 ![Language](/data/attachment/album/201504/20/223129f3xx3scs14rs1hxs.png) 填入你的信息,选择一个高强度的超级用户/管理员密码,点击继续。 ![whoareyou](/data/attachment/album/201504/20/223130dimvmmi8ypiy3m7y.png) 当你的信息提供后,核心安装进程就会启动,正在安装的组件的详细信息会在一个小对话框里随进度条一闪而过。 ![Installation progress](/data/attachment/album/201504/20/223131yio0hkreittxyfl6.png) 恭喜你!最新的Elementary OS 0.3 (Freya)已经安装完成了。此时需要重启来更新和完整注册,恭喜。 ![Installation Complet](/data/attachment/album/201504/20/223131hkbuyks9uuy6465k.png) 启动时,Elementary OS将显示它优雅的logo,然后会出现密码保护的管理员登入和游客访问选项。游客访问有相当多的限制功能,而且没有安装软件的权限。 ![Login](/data/attachment/album/201504/20/223134s1cdvzrf46l7wtwi.png) 下图是新安装的Elementary OS 0.3的画面。 ![first look](/data/attachment/album/201504/20/223137wyi7l4lreryf7417.png) ### 个性化桌面 Elementary OS 0.3以其轻巧和美观而为我们熟知。每个人有自己独特的审美观和计算机使用习惯,桌面反映出每一个计算机使用者的个人偏好。如其他操作系统一样,Elementary OS 0.3也提供了许多选项来个性化配置桌面,包括壁纸,字体大小,主题等等。 基本的个性化配置,点击Applications > System Settings > Desktop 我们可以改变壁纸,泊板(dock)和启用桌面热角。 默认提供了很少的壁纸,更多的可以从网上下载或者从你的相机传输过来。 ![Desktop Wallpaper](/data/attachment/album/201504/20/223139uq0szs5wwixpy0wq.png) Elementary OS真正的美丽在于优雅的泊板。桌面上没有任何图标,泊板上的应用图标显示逼真,通过它可以快速访问常用应用。 ![Desktop Dock](/data/attachment/album/201504/20/223140ph0y30uj4l5txm4h.png) 用户可以定制桌面的四个热角的功能。 ![Hot Corners](/data/attachment/album/201504/20/223141c3qnes89l9ooxdkk.png) 通过安装elementary tweaks工具来更深入的个性化定制。 可以使用如下命令,将它的稳定版的PPA添加到高级软件包管理工具(APT)仓库。 ``` sudo add-apt-repository ppa:mpstark/elementary-tweaks-daily ``` ![ppa](/data/attachment/album/201504/20/223142n8op9soztei6e89t.png) 当 PPA 添加到仓库后,我们需要用以下命令更新仓库 ``` sudo apt-get update ``` ![update repository](/data/attachment/album/201504/20/223142z4kv078fh17hthzt.png) 更新仓库后,我们就可以安装elementary-tweaks,用以下命令完成 ``` sudo apt-get install elementary-tweaks ``` ![install elementary tweaks](/data/attachment/album/201504/20/223143wk7wfv8hk9oxwf1o.png) 我们可以在Application > System Settings下的个人区域的看到增加了一个Tweaks项目。它现在可以给我们提供更多的个性化定制选项。 ![tweaks](/data/attachment/album/201504/20/223144fcqfcilstfl7elqq.png) 为了进一步定制,我们也安装了gnome桌面系统的tweak工具,以演示解锁桌面。 ``` sudo apt-get install gnome-tweak-tool ``` ![gnome](/data/attachment/album/201504/20/223144gkk94ka1g4eg3x1x.png) ### 总结 Elementary OS十分接近Linux发行版Ubuntu,它的优缺点两方面也都十分相似。Elementary OS在外观和体验上都十分轻巧和优雅,并且正在快速地走向成熟。它有潜力成为Windows和OS X操作系统之外的第三选择。最新的Elementary OS 0.3(Freya)以其良好的功能基础而迅速流行。想了解更多信息,最近的更新和下载,请访问其官方[网站](http://sourceforge.net/projects/elementaryos/files/stable/elementaryos-freya-amd64.20150411.iso/download)。 --- via: <http://linoxide.com/ubuntu-how-to/elementary-os-0-3-freya-install-guide/> 作者:[Aun Raza](http://linoxide.com/author/arunrz/) 译者:[wi-cuckoo](https://github.com/wi-cuckoo) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
null
HTTPConnectionPool(host='linoxide.com', port=80): Max retries exceeded with url: /ubuntu-how-to/elementary-os-0-3-freya-install-guide/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7b83275c4580>, 'Connection to linoxide.com timed out. (connect timeout=10)'))
null
5,315
Prips - 打印指定范围内的IP地址
http://www.ubuntugeek.com/prips-print-ip-address-on-a-given-range.html
2015-04-21T13:12:00
[ "IP" ]
https://linux.cn/article-5315-1.html
prips是一个可以打印出指定范围内所有ip地址的一个工具。它可以增强那些只能同时工作在一个主机上的工具的可用性。 ![](/data/attachment/album/201504/20/233142zczi0lo6i4moc3cc.jpg) ### 在ubuntu上安装prips 打开终端并输入下面的命令 ``` sudo apt-get install prips ``` ### 使用prips prips语法 ``` prips [-c] [-d delim] [-e exclude] [-f format] [-i incr] start end prips [-c] [-d delim] [-e exclude] [-f format] [-i incr] CIDR-block ``` ### 可用选项 prips接受下面的命令行选项: * -c -- 以CIDR形式打印范围。 * -d 分隔符 -- 用ASCII码作为分隔符,0 <= 分隔符 <= 255。 * -e -- 排除输出的范围。 * -f 格式 -- 设置地址格式 (hex:16进制, dec:10进制, 或者dot:以点分隔). * -i 增长 -- 设置增长上限 ### Prips示例 显示保留的子网内的所有地址: ``` prips 192.168.32.0 192.168.32.255 ``` 同上面一样,使用CIDR标示: ``` prips 192.168.32/24 ``` 只显示A类保留子网内所有可用的地址,用空格而不是换行作为分隔符: ``` prips -d 32 10.0.0.1 10.255.255.255 ``` 每块显示4个ip地址: ``` prips -i 4 192.168.32.7 192.168.33.5 ``` 打印包含两个地址的最小CIDR块。 ``` prips -c 192.168.32.5 192.168.32.11 ``` --- via: <http://www.ubuntugeek.com/prips-print-ip-address-on-a-given-range.html> 作者:[ruchi](http://www.ubuntugeek.com/author/ubuntufix) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创翻译,[Linux中国](http://linux.cn/) 荣誉推出
200
OK
# Prips – Print IP address on a given range **Sponsored Link** **Install Prips on ubuntu** Open the terminal and run the following command sudo apt-get install prips **Using prips** **prips syntax** prips [-c] [-d delim] [-e exclude] [-f format] [-i incr] start end prips [-c] [-d delim] [-e exclude] [-f format] [-i incr] CIDR-block **Available Options** The prips tool accepts the following command-line options: -c -- Print the range in CIDR notation. -d delim -- Set the delimiter to the character with ASCII code delim where 0 <= delim <= 255. -e -f format -- Set the format of addresses (hex, dec, or dot). -i incr -- Set the increment to ‘x'. **Prips Examples** Display all the addresses in a reserved subnet: prips 192.168.32.0 192.168.32.255 The same, using CIDR notation: prips 192.168.32/24 Display only the usable addresses in a class A reserved subnet using a space instead of a newline for a delimiter: prips -d 32 10.0.0.1 10.255.255.255 Display every fourth address in a weird block: prips -i 4 192.168.32.7 192.168.33.5 Determine the smallest CIDR block containing two addresses: prips -c 192.168.32.5 192.168.32.11 is it possible to run prips command on list of ip address from a file?