要将markdown文件转换成html文件,可以用discount或python-markdown软件包提供的markdown工具。
1
|
|
或
1
|
|
用discount提供的markdown工具转换:
1
|
|
用python-markdown提供的markdown_py工具转换:
1
|
|
如果要生成PDF,可以用python-pisa提供的xhtml2pdf转换:
1 2 |
|
要将markdown文件转换成html文件,可以用discount或python-markdown软件包提供的markdown工具。
1
|
|
或
1
|
|
用discount提供的markdown工具转换:
1
|
|
用python-markdown提供的markdown_py工具转换:
1
|
|
如果要生成PDF,可以用python-pisa提供的xhtml2pdf转换:
1 2 |
|
在笔记本电脑上安装了两个Linux系统,有一个几乎不用,所以决定把它给删除了,在网上看到OS-Uninstaller(操作系统卸载)——轻松删除电脑中多余的操作系统一文可以操作成功,就决定试试了。本着学习的态度,边操作边作笔记,把它记录在了这里。可天公并不眷恋我这个爱折腾的孩子,操作并没有成功,开机显示如下信息:
1 2 3 4 5 |
|
下面几种操作会导致这种问题:
总归是由于操作者不知道grub2分为两部分,一部分(一般情况下)写在了mbr上,另一部分写在了某个分区的/boot/grub
目录(如果/boot
单独分区,则直接写在对应分区的/grub
目录)里面。由于上述操作,致使grub2的mbr里面的那一部分找不到/grub
目录里面的那一部分了(或者另一部分已经删除了)。
适用于已经不想再使用Ubuntu,要转回Windows的人。只要有Windows启动盘(非Ghost),用它启动,至选择安装位置,不用真正安装,退出重启就可以。或者用它启动到故障修复台,运行fixboot或者fixmbr都可以。 win7命令行下,则是执行:
1
|
|
/fixmbr
修复mbr,/FixBoot
修复启动扇区,/ScanOs
检测已安装的win7,/RebuildBcd
重建bcd。
Linux不会产生无用垃圾文件,但是在升级后它不会自动删除缓存中的文件,比较占系统硬盘资源。
1 2 3 |
|
1 2 |
|
1
|
|
tracker不仅会产生大量的cache文件,而且还会影响开机速度,所以在新得立里面删掉就行。
OS-Uninstaller提供了一个图形化的界面,可以清除Windows, MacOS, Ubuntu以及其它的操作系统,可谓是强大又好用。
Ubuntu下通过添加PPA安装,打开终端输入:
1
|
|
然后输入以下内容回车:
1
|
|
执行以下命令安装:
1
|
|
安装完之后,软件会自己启动。
也可以直接下载包含有OS-Uninstaller的镜像刻录使用,点击这里下载。
Linux进程调度的目标:
Linux给予进程一个优先运行序 (priority, PRI), 这个PRI值越低代表优先级越高。不过这个PRI值是由核心动态调整的,使用者无法直接调整PRI值。
由于PRI是核心动态调整的,使用者无权去干涉。如果想要调整进程的优先运行序,就要透过Nice值了。一般来说, PRI与NI的相关性如下:
1
|
|
GCC的使用方法:
1 2 3 4 5 6 7 |
|
1 2 3 |
|
1 2 3 |
|
另外,如果test用户不存在,则可以用以下语句完成:
1
|
|
1 2 |
|
1 2 3 |
|
Scrapy为爬虫中的start_urls
属性中每个URL创建了一个scrapy.http.Request
对象 ,并把parse
方法作为回调函数指定给爬虫。
这些Request
会被调度,执行,scrapy.http.Response
对象被返回,结果也被反馈给爬虫,之后通过parse()
方法解析。
有很多方法从网站中提取数据。Scrapy使用一种叫做Scrapy Selectors的机制,它基于XPath或者是CSS表达式。如果想了解更多selectors和其它机制,可查阅Selectors documentation。
以下是XPath表达式的例子和它们的含义:
/html/head/title
: 选择HTML文档<head>
元素下面的<title>
标签。/html/head/title/text()
: 选择前面提到的<title>
元素下面的文本内容。//td
: 选择所有 <td>
元素。//div[@class="mine"]
: 选择所有包含class="mine"
属性的div
标签元素。这只是几个使用XPath的简单例子,但是实际上XPath非常强大。如果你想了解更多XPATH的内容,我们向你推荐这个XPath教程。
为了方便使用XPaths,Scrapy提供XPathSelector
类, 有两种方式可以选择,HtmlResponse
(HTML数据解析) 和XmlResponse
(XML数据解析)。
使用XPath选择器,Scrapy提供了一个Selector
类,它实例化一个Htmlresponse
或Xmlresponse
对象作为第一个参数。
你可以看到selectors作为对象表示在文档结构节点。所以,第一个实例化selectors是与根节点相关联,或整个文档。
Selectors有四种基本方法(具体的使用请查看API文档):
path()
:返回selectors列表, 每一个select表示一个xpath参数表达式选择的节点。css()
: 返回selectors列表, 每一个select表示一个CSS参数表达式选择的节点。extract()
:返回一个unicode字符串,该字符串为XPath选择器返回的数据。re()
: 返回unicode字符串列表,字符串作为参数由正则表达式提取出来。