近视操与龙眼饮

最近视疲劳加剧,终日眼涩不已,全仗人造泪液度日。今日忽见微信朋友圈好文,特转帖如下。其实有些方法以前也用过,尤其是远近凝视切换,确实有效,惜未能坚持。然最末龙眼饮,确属初见,可以一试。

========

近视到底能不能治疗呢?不做激光手术的话,我们能做些什么吗?

1、远方凝视:
找一处10米以外的草地或绿树:绿色由于波长较短,成像在视网膜之前,促使眼部调节放松、眼睫状肌松弛,减轻眼疲劳。不要眯眼,也不要总眨眼,排除杂念、集中精力、全神贯注的凝视25秒,辨认草叶或树叶的轮廓。接着把左手掌略高于眼睛前方30厘米处,逐一从头到尾看清掌纹,大约5秒。看完掌纹后再凝视远方的草地或树叶25秒,然后再看掌纹。10分钟时间反复20次,一天做三回,视力下降厉害的要增加训练次数。

2、晶体操:
转眼:双手托腮,让眼球按上、下、左、右的顺序转动10次,接着再逆时针、顺时针各转动10次。
找一幅3米外的景物(如:墙上的字画等),同时举起自己的左手距眼睛略高处伸直(约30厘米),看清手掌手纹后,再看清远物,尽量快速的在二者间移动目光,往返20次。

3、推拿操:
采取坐式或仰卧式均可,将两眼自然闭合,然后依次按摩眼睛周围的穴位。要求取穴准确、手法轻缓,以局部有酸胀感为度。
揉天应穴:用双手大拇指轻轻揉按天应穴(眉头下面、眼眶外上角处。 )
挤按睛明穴:用一只手的大拇指轻轻揉按睛明穴(鼻根部紧挨两眼内眦处)先向下按,然后又向上挤
揉四白穴:用食指揉按面颊中央部的四白穴(眼眶下缘正中直下一横指)。
按太阳穴、轮刮眼眶:用拇指按压太阳穴(眉梢和外眼角的中间向后一横指处),然后用弯屈的食指第二节内侧面轻刮眼眶一圈,由内上->外上-> 外下->内下,使眼眶周围的攒竹鱼腰、丝竹空、瞳子寥、球后、承泣等穴位受到按摩。对于假性近视、或预防近视眼度数的加深有好处。

保护视力的4种锻炼方法
一、转眼法
选一安静场所,或坐或站,全身放松,清除杂念,二目睁开,头颈不动,独转眼球。先将眼睛凝视正下方,缓慢转至左方,再转至凝视正上方,至右方,最后回到凝视正下方,这样,先顺时针转9圈。再让眼睛由凝视下方,转至右方,至上方,至左方,再回到下方,这样,再逆时针方向转6圈。总共做4次。每次转动,眼球都应尽可能地达到极限。这种转眼法可以锻炼眼肌,改善营养,使眼灵活自如,炯炯有神。
二、眼呼吸凝神法
选空气清新处,或坐或立,全身放松,二目平视前方,徐徐将气吸足,眼睛随之睁大,稍停片刻,然后将气徐徐呼出,眼睛也随之慢慢微闭,连续做9次。
三、熨眼法
此法最好坐着做,全身放松,闭上双眼,然后快速相互摩擦两掌,使之生热,趁热用双手捂住双眼,热散后两手猛然拿开,两眼也同时用劲一睁,如此3~5次,能促进眼睛血液循环,增进新陈代谢。
四、洗眼法
先将脸盆消毒后,倒入温水,调节好水温,把脸放入水里,在水中睁开眼睛,使眼球上下左右各移动9次,然后再顺时针、逆时针旋转9次。刚开始,水进入眼里,眼睛难受无比,但随着眼球的转动,眼睛会慢慢觉得非常舒服。在做这一动作时,若感到呼吸困难,不妨从脸盆中抬起脸来,在外深呼吸一下。此法,能洗去眼中的有害物质和灰尘,还对轻度白内障有效,并能改善散光、远视、近视的屈光不正程度。
此方的提供者是一名执业中的中医师兼教授,他的爸爸也是中医师。
有一天一起泡茶聊天时,聊到了这一道药方。

他的外甥曾经近视一千度,他就叫他煮用以上这道药方,每天喝。八个月后外甥的近视降到只有两百度。

所以这是一个经过亲身体验而成功过的药方。

药方:龙眼肉+龙眼核(即带核的龙眼)、枸杞。

煮法:以上叁味适量,加水煮成茶,龙眼核不必打碎.

服法:就当一般茶来喝就好,每天喝,至少连喝两个月。(没效可放弃不再喝,有效而还不满意,则应续喝。)

疗效:一切跟眼睛的水晶体不正常有关的眼睛问题,包括近视,远视,散光等等。

重点:一定要用龙眼核,只用龙眼肉,则效果折半。

建议:请饭后喝,效果最佳。(因为病在头部,而饭后喝会使药性发挥在头部较多,也就是此方的目的

使用python抓取网页

粗略学习Python中,看到一篇好文 http://crocodile.iteye.com/blog/1460227,果断转帖

 

前一段时间写的小东西,一直没工夫把他系统写出来,今天眼睛疼,就写写吧~~(原来博主不蛋疼时也会更新博客的哈~)

python抓取网页基础

python自己带有很多网络应用相关的模块,如:ftplib用于FTP相关操作,smtplib和poplib用于收发电子邮件等等,利用这些 模块自己写一个FTP软件或是邮件客户端类软件完全是可能的,我就简单的试过完全用python脚本收发邮件和操作自己的FTP服务器。当然,这都不是今 天的主角,我们今天要用到的几个模块是:urllib,urllib2,cookielib,BeautifulSoup,我们先来简单介绍下。 urllib和urllib2自然都是处理URL相关的操作,urllib可以从指定的URL下载文件,或是对一些字符串进行编码解码以使他们成为特定的 URL串,而urllib2则比urllib更2一点,哦不对,是更牛逼一点。它有各种各样的Handler啊,Processor啊可以处理更复杂的问 题,比如网络认证,使用代理服务器,使用cookie等等。第三个cookielib,顾名思义,专门处理cookie相关的操作,其他的我也没深入过。 而最后一个包,BeautifulSoup,“美丽的汤”,它是一个第三方的包,专门用于解析HTML和XML文件,使用非常之傻瓜,我们就要靠它来解析 网页源代码了,可以从这里下载,当然你也可以用easy_install安装它,这里还有它的中文使用文档,有多例子是相当不错的。

我们先来看看最简单的网页抓取,其实网页抓取就是将所要的网页源代码文件下载下来,然后对其分析以提取对自己有用的信息。最简单的抓取用一句话就可以搞定:

1
2
import urllib
html_src = urllib.urlopen('http://www.baidu.com').read()

这样就会打印出百度首页的HTML源码了,还是很easy的。urllib的urlopen函数会返回一个“类文件”对象,所以直接调用 read()即可获取里面的内容了。但是这样打印得到的内容是一团糟,排版不好看,编码问题也没解决,所以是看不到中文字符的。这就需要我们的 BeautifulSoup包了,我们可以使用上面得到的源代码字符串html_src来初始化一个BeautifulSoup对象:

1
2
from BeautifulSoup import BeautifulSoup
parser = BeautifulSoup(html_src)

这样,后续处理HTML源码的工作交给parser变量来负责就好,我们可以简单的调用parser的prettify函数来相对美观的显示源码, 可以看到这样就能看到中文字符了,因为BeautifulSoup能自动处理字符问题,并将返回结果都转化为Unicode编码格式。另 外,BeautifulSoup还能迅速定位到满足条件的指定标签,后面我们会用到~

 

抓取人人网的新鲜事

前面讲的是最简单的抓取情形了,但通常我们需要面对更复杂的情形,拿人人网来说,需要登录自己的账号才能显示新鲜事,这样我们就只能求助于更2一点 的urllib2模块了。试想,我们需要一个opener来打开你的人人网首页,而为了进入首先就需要认证,而这个登录认证需要cookie的支持,那我 们就需要在这个opener之上搭建一个处理cookie的Handler:

1
2
3
4
import urllib,urllib2,cookielib
from BeautifulSoup import BeautifulSoup
myCookie = urllib2.HTTPCookieProcessor(cookielib.CookieJar());
opener = urllib2.build_opener(myCookie)

首先import我们需要的所有模块,然后使用urllib2模块的HTTPCookieProcessor搭建一个处理cookie的 Handler,传入cookielib模块的CookieJar函数作为参数,这个这个函数处理HTTP的cookie,简单地说,它从HTTP请求中 提取cookie,然后将其返回给HTTP响应。然后利用urllib2的build_opener来建立我们需要的opener,这个opener已经 满足我们处理cookie的要求了。

那么这个Handler怎么工作呢,前面说了,它需要捕捉到HTTP请求才行,也就是说,我们需要知道,登录人人的时候发了什么数据包出去,牛逼的 人可以使用各种命令行抓包工具如Tcpdump一类的,我等小民还是图形化的吧。这里我们借助于Firefox的HttpFox来实现,可以从这里添 加这个牛逼的插件。安装好该插件以后,我们用Firefox登录人人网,然后输入自己的账号和密码,然后,别急,不要按登录按钮,从状态栏打开 HttpFox插件,点击Start按钮开始抓包,然后点击人人网的登陆,登陆过程完成后点击HttpFox的Stop停止抓包,如果一切正常的话应该可 以看到如下信息了。


我们可以看到登陆人人的过程中浏览器向人人的服务器发送POST请求数据,有四项,其中两项是你的账号和密码。下面我们就利用代码模拟发出同样的请求就可以啦。

1
2
3
4
5
6
7
8
9
post_data = {
    'email':'xxxxx',
    'password':'xxxxx',
    'origURL':'http://www.renren.com/Home.do',
    'domain':'renren.com'
}
req = urllib2.Request('http://www.renren.com/PLogin.do', urllib.urlencode(post_data))
html_src = openner.open(req).read()
parser = BeautifulSoup(html_src)

首先,构造一个字典来存储我们刚才抓到的POST数据,然后通过urllib2的Request类来自己构造一个“请求”对象,请求的递交网址就是 上面捕捉的POST请求的URL部分,后面跟着我们的POST数据,注意,这里需要使用urllib的urlencode方法重新编码,以使其成为合法的 URL串。下面的过程就跟前面提到的简单抓取过程一样,只不过这里打开的不是简单的网址,而是将网址和POST数据封装后的Request请求,同样,我 们将源码赋给BeautifulSoup以便后面处理。

现在我们的parser里存储的就是含有好友新鲜事的网页源码了,我们怎样提取有用的信息呢?分析网页这种粗活还是交给Firefox的FireBug(这里下载)来玩吧。登入你的人人网,随意右击一下新鲜事里某个人的状态,选择“查看元素”,就会蹦出如下窗口,显示出你所点击的部分对应的源码:

我们可以看到,每个新鲜事对应着article标签,我们再仔细看看article标签的详细内容:

里面的h3标签包含了好友的姓名和状态,当然,还有一些肥猪流的表情地址,接触过HTML的对这个应该不陌生吧。所以我们要抓的就是这个h3啦!

BeautifulSoup抓取标签内容

下面就是我们的parser露脸的时候了,BeautifulSoup提供了很多定位标签的方法,简单的说,主要就是find函数和findAll 函数了,常用的参数就是name和attrs,一个是标签的名字,一个是标签的属性,name是个字符串,而attrs是个字典,比如说 find(‘img’,{‘src’:’abc.jpg’})就会返回类似这样的标签:<img  src=”abc.jpg”>。而find与findAll的区别就是,find只返回第一个满足要求的标签,而findAll返回所有符合要求的 标签的列表。获取标签后,还有很多方便的方法获取子标签,例如,通过点操作符,tag.a可以获取tag所代表的标签下的子标签a,再如 tag.contents可以获取其所有孩子的列表,更多应用可以查看它的文档。下面就具体到本例来看怎么抓取我们想要的内容。

1
2
3
4
5
6
7
8
9
10
11
article_list = parser.find('div','feed-list').findAll('article')
for my_article in article_list:
    state = []
    for my_tag in my_article.h3.contents:
        factor = my_tag.string
        if factor != None:
            factor = factor.replace(u'\xa0','')
            factor = factor.strip(u'\r\n')
            factor = factor.strip(u'\n')
            state.append(factor)
    print ' '.join(state)

这里,我们通过find(‘div’,’feed-list’).findAll(‘article’)获取class属性为‘feed- list’的div标签,第二个参数直接为一个字符串时代表的就是CSS的class属性了,然后获取其所有article的列表,对照上面的图,这句其 实就是获得了所有新鲜事的列表。然后我们遍历这个列表,对于每个article标签再获取其h3标签,并提取内容,如果标签中直接含有文本,则可以通过 string属性获得,最后,我们去掉一些控制字符,如换行一类的。最终将结果打印出来,当然这只能获取一小部分,“更多新鲜事”的功能还不能达到,有兴 趣的继续研究吧,我觉得通过HttpFox是不难实现的吧。

团购信息聚合小工具

用同样的知识,我们还可以做一些有趣的应用,像现在很火的团购信息聚合,其实思路还是很容易的,就是分析网站的源代码,提取团购的标题,图片和价格 就好了。这里放出源码文件,有兴趣的可以研究下!用PyQt做的界面,按钮的功能还没有实现,只能提取“美团”,“糯米网”,“QQ团购”三个网站,从下 拉列表框里选择就可显示,图片会保存在本地目录里,来个截图看看吧~

打叉的按钮功能没有实现哦~这里是文件下载,一个pyw主窗体文件,两外两个py文件一个是UI,一个是Resource。

来源:http://pinkyjie.com/?p=376&replytocom=390