设为首页收藏本站

Crossin的编程教室

 找回密码
 立即加入
查看: 45431|回复: 35
打印 上一主题 下一主题

Python 实战(6):放开那只海豹

[复制链接]

174

主题

45

好友

11万

积分

管理员

Rank: 9Rank: 9Rank: 9

跳转到指定楼层
楼主
发表于 2015-5-24 23:40:42 |只看该作者 |倒序浏览
有了一堆数据后,现在可以把影片详细页面做得更详细一点了。

首先能想到的,就是加上影片的海报。在从豆瓣获取的数据里,有一项 image,就是影片海报图片的地址。如:

http://img4.douban.com/view/movie_poster_cover/lpst/public/p1910830216.jpg

把地址贴在浏览器中,就可以看到海报图片。

HTML 里显示图片的语法是:

<img src="图片地址">

于是,在模板 movie.html 里增加:

<img src="$movie.image">

保存后刷新页面。结果,并没有如我们所愿看到影片的海报图片。把 src 换成其他一些网络图片的地址,是可以正常显示的。这里代码并没有错,问题的原因在于豆瓣的图片限制了从外部网站直接访问,也就是通常说的“防盗链”。

既然如此,那我只好选择另一种方法:把电影海报图片抓到本地,之后页面上直接显示自身服务器上的图片。

基本思路就是,从已经拿到的数据库信息中,依次取出海报地址,访问后将其保存为本地文件,以影片 id 命名。页面上,通过 id 拼出图片的文件名,将其显示。(这里,因为我已经检验过所有图片格式均为 jpg,所以可以直接这么做,如果海报有多种图片格式,那么仅通过 id 来拼文件名是不够的。)

下载图片的方法:

def get_poster(id, url):
    pic = urllib.urlopen(url).read()
    file_name = 'poster/%d.jpg' % id
    f = file(file_name, "wb")
    f.write(pic)
    f.close()

file 里的 wb 参数表示以二进制的方式写入文件。在调用此方法时,需确保当前目录下有一个叫做 poster 的目录,不然程序是没有办法访问到文件的。

db = web.database(dbn='sqlite', db='MovieSite.db')
movies = db.select('movie')
count = 0
for movie in movies:
    get_poster(movie.id, movie.image)
    count += 1
    print count, movie.title
    time.sleep(2)

从数据库里取出 id 和海报图片地址,循环抓取,每次输出进度和标题,并休息 2 秒钟。

运行抓取程序,下载完所有图片之后,修改一下 movie.html,加入一行:

<img src="/static/poster/$(movie.id).jpg">

这里有两件事需要注意:

首先是图片的路径。这里要在页面上直接使用文件而不是代码,这被称作静态文件访问。在 web.py 里,默认是以 static 作为静态文件目录。因此,必须把存放图片的 poster 文件夹扔到 static 目录下面。static 目录本身是在服务器根目录,也就是和 code.py 在一个目录下。

其次是 $(movie.id).jpg。这里如果不加括号,代码则会将 .jpg 理解为取参数 movie.id.jpg 的值。所以要用括号来区分。

好了,我们的网站终于不再是一个纯文字网站了。

someweb-6-movie.html (208 Bytes, 下载次数: 138)
get_poster.py (409 Bytes, 下载次数: 146)


#==== Crossin的编程教室 ====#
微信ID:crossincode
网站:http://crossincode.com
回复

使用道具 举报

0

主题

0

好友

95

积分

注册会员

Rank: 2

沙发
发表于 2015-5-25 20:58:05 |只看该作者
如何提高插入大量数据的效率呢?
回复

使用道具 举报

174

主题

45

好友

11万

积分

管理员

Rank: 9Rank: 9Rank: 9

板凳
发表于 2015-5-26 20:14:30 |只看该作者
喵小白 发表于 2015-5-25 20:58
如何提高插入大量数据的效率呢?

sql有批量插入方法
#==== Crossin的编程教室 ====#
微信ID:crossincode
网站:http://crossincode.com
回复

使用道具 举报

0

主题

0

好友

95

积分

注册会员

Rank: 2

地板
发表于 2015-5-27 09:21:16 |只看该作者
crossin先生 发表于 2015-5-26 20:14
sql有批量插入方法

是不是先把数据保存到文件里,然后从文件导入数据?
回复

使用道具 举报

174

主题

45

好友

11万

积分

管理员

Rank: 9Rank: 9Rank: 9

5#
发表于 2015-5-27 20:16:06 |只看该作者
喵小白 发表于 2015-5-27 09:21
是不是先把数据保存到文件里,然后从文件导入数据?

不用啊,直接存在内存里,先用变量保存着,按格式整理好,然后用批量插入命令一次插入就可以
#==== Crossin的编程教室 ====#
微信ID:crossincode
网站:http://crossincode.com
回复

使用道具 举报

0

主题

0

好友

95

积分

注册会员

Rank: 2

6#
发表于 2015-5-28 15:19:52 |只看该作者
crossin先生 发表于 2015-5-27 20:16
不用啊,直接存在内存里,先用变量保存着,按格式整理好,然后用批量插入命令一次插入就可以 ...

哦~~~酱紫
回复

使用道具 举报

1

主题

0

好友

19

积分

新手上路

Rank: 1

7#
发表于 2015-7-7 01:34:02 |只看该作者
请问老师,为什么仅仅是一个urllib.urlopen加载一张图片就要1分多钟?
import urllib
f=urllib.urlopen("http://img6.douban.com/img/celebrity/large/17525.jpg").read()
fi=file("17525.jpg","wb")
fi.write(f)
fi.close()
以上代码执行完要1~2分钟
而用浏览器打开该网址则是瞬间打开?
试过urllib2.urlopen也几乎是瞬间打开

import urllib2

f=urllib2.urlopen("http://img6.douban.com/img/celebrity/large/17525.jpg").read()
fi=file("17525.jpg","wb")
fi.write(f)
fi.close()
以上代码几乎瞬间执行完毕

是不是urllib2更高效?
谢谢老师
回复

使用道具 举报

174

主题

45

好友

11万

积分

管理员

Rank: 9Rank: 9Rank: 9

8#
发表于 2015-7-7 13:28:44 |只看该作者
lovepythoner 发表于 2015-7-7 01:34
请问老师,为什么仅仅是一个urllib.urlopen加载一张图片就要1分多钟?
import urllib
f=urllib.urlopen("htt ...

没专门研究过,每次都是这么久的话,那应该是实现上的差别
#==== Crossin的编程教室 ====#
微信ID:crossincode
网站:http://crossincode.com
回复

使用道具 举报

0

主题

0

好友

48

积分

新手上路

Rank: 1

9#
发表于 2015-7-17 23:02:24 |只看该作者
请问老师,top250都列出来以后,搜索功能不能搜索中文了

<type 'exceptions.UnicodeDecodeError'> at /
'ascii' codec can't decode byte 0xe7 in position 48: ordinal not in range(128)

好像是编码问题,请问怎么解决?谢谢!
回复

使用道具 举报

174

主题

45

好友

11万

积分

管理员

Rank: 9Rank: 9Rank: 9

10#
发表于 2015-7-18 15:57:20 |只看该作者
lincoln 发表于 2015-7-17 23:02
请问老师,top250都列出来以后,搜索功能不能搜索中文了

at /

要看是哪里报的错,用encode('utf8')
#==== Crossin的编程教室 ====#
微信ID:crossincode
网站:http://crossincode.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即加入

QQ|手机版|Archiver|Crossin的编程教室 ( 苏ICP备15063769号  

GMT+8, 2024-11-25 05:08 , Processed in 0.025007 second(s), 24 queries .

Powered by Discuz! X2.5

© 2001-2012 Comsenz Inc.

回顶部