登录
    hello,it's me!

破玉的文章

技术宅

RedHat6.5 离线升级至RedHat6.8

RedHat6.5 离线升级至RedHat6.8
无网络升级,可以考虑从本地光盘和U盘镜像进行升级 一、挂载光盘或者镜像文件 找到光盘的完整路径名。在命令行输入:ls -l /dev | grep cdrom。 可以看到光盘的名字叫做:cdrom1。然后在命令行执行: mount /dev/cdrom1 /mnt/。这会把光盘挂载到/mnt目录下。然后我们就可以通过访问/mnt来访问光盘。 二、 检查磁盘或……继续阅读 »

2年前 (2017-06-28) 186浏览 0评论 0个赞

技术宅

为eclipse指定相应的jdk版本

为eclipse指定相应的jdk版本
  最新版的eclipse要求用jdk1.8的版本,但是本机运行程序基本上需要jdk1.7的,所以为1.7指定了环境变量,在不修改环境变量的情况下,怎么才能让eclipse在1.8版本的jdk环境下运行呢?   我们需要找到eclipse根目录,修改eclipse的配置文件 用文本编辑器打开eclipse.ini 在……继续阅读 »

2年前 (2017-06-02) 349浏览 2评论 0个赞

技术宅

ubuntu 16.04 安装tomcat8.0

ubuntu 16.04 安装tomcat8.0
一、下载tomcat http://tomcat.apache.org/download-80.cgi 我们下载Linux版的tomcat 下载完,解压到/usr/local/ 目录下 配置tomcat 根据tomcat目录下running.txt 我们来配置几个路径 一是tomcat根路径,再一个是Java的路径 A.在bin/startup.sh里面……继续阅读 »

2年前 (2017-05-30) 166浏览 0评论 0个赞

技术宅

python 爬虫处理asp中的__VIEWSTATE与__EVENTVALIDATION

python 爬虫处理asp中的__VIEWSTATE与__EVENTVALIDATION
最近在处理一个aspx页面遇到一点小麻烦,页面中有几个参数不好处理,因为是hidden域,所以无法直接赋值进行提交。 ViewState的原理 1.浏览器请求Default.aspx页面 2.在服务器端 发现创建的ViewState 这个时候 会自动创建一个名字叫做__VIEWSTATE(双下滑线 全部是大写) 的隐藏域 其隐藏域的值经过base64加密以后……继续阅读 »

2年前 (2017-05-22) 1178浏览 0评论 0个赞

技术宅

利用Python将网页保存为PDF文件

利用Python将网页保存为PDF文件
环境简介 wkhtmltopdf可以直接把任何一个可以在浏览器中浏览的网页直接转换成一个pdf,首先说明一下它不是一个python库,而是一个把html页面转换成pdf的一个软件,我们需要在系统上安装它。 Ubuntu 16.04 安装wkhtmltopdf $ sudo apt-get install wkhtmltopdf 然后Python需要使……继续阅读 »

2年前 (2017-04-20) 555浏览 0评论 0个赞

人丑多读书

python爬虫获取搜狐新闻

python爬虫获取搜狐新闻
  本次我们来分析搜狐新闻来抓取一些文章来作为我们以后的数据,开发过程中,我们需要用到requests库来处理我们的HTTP请求,Beautifulsoup库来处理我们的HTML文档。由于我们只是获取一部分资讯,所以我们不准备使用队列和多线程来获取所有的内容。只是简单的对文章内容做一些处理。 获取部分文章的链接 我们针对搜狐新闻的要闻部分……继续阅读 »

2年前 (2017-04-16) 279浏览 0评论 0个赞

技术宅

Python 爬虫入门篇(二)–爬呀爬文章

Python 爬虫入门篇(二)–爬呀爬文章
寻找目标 由于刚刚接触目标,我们肯定要找一个好爬的资讯网站啊,这样爬成功了我们才会有点成就感,以鼓励自己继续学习。此篇文章中,我们以金融之家这个资讯网站为例来爬取文章 爬取之前的工作 分析网站内容,进行抓取 我们借助于chrome浏览器审查元素的功能,首先对网站进行分析 借助于审查元素,我们就可以获取这个元素对应的html标签代码,我们要获取这个元素中的……继续阅读 »

2年前 (2017-03-02) 275浏览 0评论 0个赞

技术宅

Python爬虫之Requests库

Python爬虫之Requests库
引言      Requests 允许你发送纯天然,植物饲养的 HTTP/1.1 请求,无需手工劳动。你不需要手动为 URL 添加查询字串,也不需要对 POST 数据进行表单编码。Keep-alive 和 HTTP 连接池的功能是 100% 自动化的,一切动力都来自于根植在 Requests 内部的 urllib3。 ……继续阅读 »

2年前 (2017-02-25) 316浏览 0评论 0个赞

返回顶部