Python论坛  - 讨论区

标题:Re: [python-chinese] 求助!编写一个监视WINDOWS2000某一程序是否运行

2005年06月10日 星期五 09:16

fla liu fla.liu at gmail.com
Fri Jun 10 09:16:52 HKT 2005

#!/usr/bin/python

#=======================================
# Watch Program v 0.1
#=======================================

import win32process
import win32event
import win32con
import win32api
import time
import ConfigParser
import string


def loadConfig(file, config={}):
    """
    returns a dictionary with key's of the form
    
.

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 09:51

lifr lifr_sh at yeah.net
Fri Jun 10 09:51:00 HKT 2005

我想通过http下载一个log文件在本地分析,可是我不清楚这里面的过程是什么样
的。
一般情况是点击一个link,然后browser会弹出文家下载对话框。
 
谁能介绍介绍,最好有一点实例code。谢谢。
 
 
-------------- next part --------------
An HTML attachment was scrubbed...
URL: http://lists.exoweb.net/pipermail/python-chinese/attachments/20050610/22f6f4f0/attachment.html

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 10:29

马剑 honeyday at staffonly.org
Fri Jun 10 10:29:06 HKT 2005

转贴一个limodo谢的一个爬虫。不多说了,自己看看程序吧。
一共2个文件:
------------------------------------------------------------------------
#coding=cp936
#$Id: ReceiveURL.py,v 1.4 2004/03/27 13:09:48 liyinghui Exp $

import sys
from sgmllib import SGMLParser
from os.path import normpath, normcase, join, split, splitext, isabs, exists

class ReceiveURL(SGMLParser):
    def reset(self):
        SGMLParser.reset(self)
        self.url=[]

    def start_a(self, attrs):
        for attr, value in attrs:
            if attr.lower()=="href":    #是链接,则变换链接,并加入锚点,同
                href=value

                if href.find("#")>0:
                    href=href[:href.index("#")]
                if href.find("?")>0:
                    href=href[:href.index("?")]
                file,ext=splitext(href)

                if self.fileexts:
                    if ext:
                        if ext in self.fileexts:    #是否有此后缀,如果有,则提出链接,做为下个文件处理
                            self.addURL(href)
                        else:
                            self.logger.info('Skip extension [%s]' % ext)
                else:
                    self.addURL(href)

    def start_link(self, attrs):
        for attr, value in attrs:
            if attr.lower()=="href":
                href=value
                self.addURL(href)

    def start_frame(self, attrs):
        for attr, value in attrs:
            if attr.lower()=="src":
                href=value
                self.addURL(href)

    def start_img(self, attrs):
        for attr, value in attrs:
            if attr.lower()=="src":
                href=value
                self.addURL(href)

    def addURL(self, url):
        if url not in self.url:
            self.url += [url]

    def output(self):
        print 'total=', len(self.url)
        for u in self.url:
            print '['+u+']'

    def run(self, filename, fileexts, htmlexts, logger):
        self.fileexts=fileexts #fileexts为可下载文件后缀列表
        self.logger = logger
        fname, ext = splitext(filename)
        if ext in htmlexts:
            text=open(filename).read()
            self.feed(text)
            self.close()

    def getURLs(self):
        return self.url

if __name__=='__main__':
    r=ReceiveURL()
    r.run(sys.argv[1])
    r.output()


--------------------------------------

#coding=cp936
#!/usr/bin/env python

"""CRAWL V2.0
copyright (c) limodou(chatme at 263.net)

This is a free software. It's destributed under the terms of GPL.
You can use it to grab HTML documents begin with specified url.
When you give a url, it'll first grab it, and parses all the links
in the page, then grab them all. Enjoy it!

$Id: CRAWL.PY,v 1.2 2004/03/25 05:28:33 liyinghui Exp $
"""

from sys        import argv
from os         import makedirs, unlink
from os.path    import isdir, exists, dirname, splitext
from string     import replace, find, lower
from htmllib    import HTMLParser
from urllib     import urlretrieve
from urlparse   import urlparse, urljoin
from formatter  import DumbWriter, AbstractFormatter
from cStringIO  import StringIO
import urllib2, getopt, sys, os, urllib
from ReceiveURL import ReceiveURL
import threading
import time
import traceback
import ConfigParser
import datetime

proxyflag = 0
seenfile = 'seen.txt'
downfile = 'down.txt'
inifile = '.crawl.ini'
logfile = 'crawl.log'
logger = None
tflag = False

class Retriever:                 # download Web pages

    def __init__(self, url, fileexts, htmlexts):
        self.url = url
        self.fileexts = fileexts
        self.htmlexts = htmlexts
        self.file = self.filename(url)
        self.r = ReceiveURL()

    def filename(self, url, deffile='index.html'):
        parsedurl = urlparse(url, 'http:', 0)  # parse path
        path = parsedurl[1] + parsedurl[2]
        ext = splitext(path)
        if ext[1] == '':
            if path[-1] == '/':
                path = path + deffile
            else:
                path = path + '/' + deffile
        dir = dirname(path)
        if not isdir(dir):       # create archive dir if nec.
            if exists(dir): unlink(dir)
            try:
                makedirs(dir)
            except:
                pass
        flag=0
        if parsedurl[3]:
            path += '_'+parsedurl[3]
            flag=1
        if parsedurl[4]:
            path += '_'+parsedurl[4]
            flag=1
        if flag:
            path += '.htm'
        return path

    def download(self):          # download Web page
        try:
#            retval = urllib.urlretrieve(self.url, self.file)
#add
            if proxyflag:
                f=urllib2.urlopen(self.url)
            else:
                f=urllib.urlopen(self.url)
            open(self.file, 'wb').write(f.read())
            retval=self.url, f.headers
#add end
        except Exception, e:
            logger.error(str(e))
            retval = ('*** ERROR: invalid URL "%s"' % self.url, )
        return retval

    def parseAndGetLinks(self):  # pars HTML, save links
        self.r.run(self.file, self.fileexts, self.htmlexts, logger)
        return self.r.getURLs()

class Crawler:                   # manage entire crawling process

    count = 0                    # static downloaded page counter

    def __init__(self, url, seen, exts, htmlexts):     #url是一个未下载的URL列表, seen是一个已经下载完毕的URL列表, exts是可下载文件名后缀
        self.q=url[:]
        self.seen = seen[:]
        self.exts = exts
        self.htmlexts = htmlexts
        self.lock = threading.Lock()
        parse=urlparse(url[0])
        self.dom = parse[1]
        self.basepath = parse[0]+'://'+parse[1]+dirname(parse[2])        # start path, everything inside the dir will be grabbed
        print 'Starting URL is: %s\n' % self.basepath

    def addDownLoadedURL(self, url):
        """加入已经下载完的url"""
        self.lock.acquire()
        self.seen.append(url)
        Crawler.count = Crawler.count + 1
        open(seenfile, "w").write("\n".join(self.seen))
        self.lock.release()

    def getDownloadURL(self):
        self.lock.acquire()
        if len(self.q) > 0:
            url = self.q[0]
            self.q.remove(url)
            open(downfile, "w").write("\n".join(self.q))
        else:
            url = ''
        self.lock.release()
        return url
        
    def getPage(self, url):
        self.addDownLoadedURL(url)
        r = Retriever(url, self.exts, self.htmlexts)
        if url.startswith(self.basepath):
            print threading.currentThread().getName(), 'GETING ~'+url[len(self.basepath):]
        else:
            print threading.currentThread().getName(), 'GETING '+url
        retval = r.download()
        if retval[0][0] == '*':     # error situation, do not parse
            print '    >>>> ERROR: skipping parse'
            return
        #print '\n(', Crawler.count, ')'
        #print 'URL:', url
        #print 'FILE:', retval[0]

        links = r.parseAndGetLinks()  # get and process links
        self.lock.acquire()
        for eachLink in links:
            if eachLink[:4] != 'http' and find(eachLink, '://') == -1:
                eachLink = urljoin(url, eachLink).split('#')[0]
                path = dirname(eachLink)
            else:
                path = dirname(eachLink)

            if find(lower(eachLink), 'mailto:') != -1:
                #print '... discarded, mailto link'
                continue

            if eachLink not in self.seen:
                if find(eachLink, self.dom) == -1 or not path.startswith(self.basepath):
                    #print '... discarded, not in domain' and path is not starting path
                    pass
                else:
                    if not eachLink in self.q:
                        self.q.append(eachLink)
                        #print '... new, added to Q'
                    else:
                        #print '... discarded, already in Q'
                        pass
            else:
                    #print '... discarded, already processed'
                    pass
        open(downfile, "w").write("\n".join(self.q))
        self.lock.release()

    def go(self, threadnum):                # process links in queue
        global tflag
        starttime = datetime.datetime.now()
        threads = []
        for i in range(threadnum):
            t = MyThread(self)
            t.setDaemon(True)
            threads.append(t)
        for i in range(threadnum):
            threads[i].start()
        while 1:
            try:
                if len(self.q) > 0:
                    time.sleep(0.1)
                    continue
                f = False
                for i in range(threadnum):
                    if threads[i].active:
                        f = True
                        break
                if f:
                    time.sleep(0.1)
                    continue
                break
#            url = self.q[0]
#            self.q.remove(url)
#            open(downfile, "w").write("\n".join(self.q))
#            self.getPage(url)
            except:
                traceback.print_exc()
                break
        tflag = True
        endtime = datetime.datetime.now()
        print "Retrieved total %d files in %d seconds." % (Crawler.count, (endtime - starttime).seconds)
    
class MyThread(threading.Thread):
    def __init__(self, robot):
        self.active = False
        self.robot = robot
        threading.Thread.__init__(self)
        
    def run(self):
        while 1 and not tflag:
            url = self.robot.getDownloadURL()
            if url:
                self.active = True
                self.robot.getPage(url)
                self.active = False
            else:
                time.sleep(0.1)

def initlog():
    import logging
    global logger
    
    logger = logging.getLogger()
    hdlr = logging.FileHandler(logfile)
    formatter = logging.Formatter('%(asctime)s %(levelname)s %(message)s')
    hdlr.setFormatter(formatter)
    logger.addHandler(hdlr)
    logger.setLevel(logging.NOTSET)
    
    return logger

def usage():
    print '''
CRAWL V2.0
copyright (c) limodou(chatme at 263.net)

This is a free software. It's destributed under the terms of GPL.
You can use it to grab HTML documents begin with specified url.
When you give a url, it'll first grab it, and parses all the links
in the page, then grab them all. Enjoy it!

Command line usage:

        python crawl.py [-p proxy|-t num|-f configfile] [url|-r]
        -p proxy = http://[username:password@]hostname:port
        -t num thread num
        -f configfile default use .crawl.ini file

or      python crawl.py -u
'''

def main():
    global proxyflag
    global inifile
    try:
        opts, args = getopt.getopt(sys.argv[1:], "p:urt:f:", [])
    except getopt.GetoptError:
        usage()
        sys.exit(2)
    proxyhost=''
    resume=0
    seen=[]
    threadnum = 10
    for o, a in opts:
        if o == '-u':
            usage()
            sys.exit()
        elif o == '-p':
            proxyhost=a
            proxyflag=1
        elif o == '-r':
            url=[u.strip() for u in open(downfile).readlines()]
            seen=[u.strip() for u in open(seenfile).readlines() if u.strip()]
        elif o == '-t':
            try:
                threadnum = int(a)
            except:
                threadnum = 10
            if threadnum == 0:
                threadnum = 10
        elif o == '-f':
            inifile = a

    #args[0] = "http://localhost:8088/index.html"
    url=""
    if len(args) > 0:
        url = [args[0]]
    else:
        if not url:
            try:
                u = raw_input('Enter starting URL: ')
                url = [u]
            except (KeyboardInterrupt, EOFError):
                url = ''
    if proxyhost:
#        proxy=urllib2.ProxyHandler({'http':'http://www:www@11.133.232.19:8080'})
        print "\nProxy is: %s" % proxyhost
        proxy=urllib2.ProxyHandler({'http':proxyhost})
        opener=urllib2.build_opener(proxy)
        urllib2.install_opener(opener)

    if not url: return

    ini = ConfigParser.ConfigParser()
    ini.read(inifile)
    
    exts = []
    if ini.has_option('default', 'exts'):
        exts = ini.get('default', 'exts').split()
    if not exts:
        exts = ['.htm', '.html', '.gif', '.jpg', '.png', '.py', '.txt', '.css', '.js', '.aspx']

    htmlexts = []
    if ini.has_option('default', 'htmlexts'):
        htmlexts = ini.get('default', 'htmlexts').split()
    if not htmlexts:
        htmlexts = ['.htm', '.html']
    
    logger = initlog()
    
    robot = Crawler(url, seen, exts, htmlexts)
    robot.go(threadnum)

if __name__ == '__main__':
    main()



On Fri, 10 Jun 2005 09:51:00 +0800
"lifr" <lifr_sh at yeah.net> wrote:
=================================================================
> 我想通过http下载一个log文件在本地分析,可是我不清楚这里面的过程是什么样
> 的。
> 一般情况是点击一个link,然后browser会弹出文家下载对话框。
>  
> 谁能介绍介绍,最好有一点实例code。谢谢。
>  
>  



[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 10:31

limodou limodou at gmail.com
Fri Jun 10 10:31:45 HKT 2005

使用urllib2(或urllib)的urlopen()打开一个http链接,将文件保存起来后,你想怎么分析怎么分析。

参考我的主页上的crawl即可。 http://pyrecord.freezope.org 也可以去google上找一找

在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
>  
> 我想通过http下载一个log文件在本地分析,可是我不清楚这里面的过程是什么样的。 
> 一般情况是点击一个link,然后browser会弹出文家下载对话框。 
>   
> 谁能介绍介绍,最好有一点实例code。谢谢。 
>   
>   
> _______________________________________________
> python-chinese list
> python-chinese at lists.python.cn
> http://python.cn/mailman/listinfo/python-chinese
> 
> 
> 


-- 
I like python! 
My Donews Blog: http://www.donews.net/limodou
New Google Maillist: http://groups-beta.google.com/group/python-cn

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 10:57

huanghao at ufgov.com.cn huanghao at ufgov.com.cn
Fri Jun 10 10:57:36 HKT 2005

我用 wget,一句话搞定,例如:

wget -r -np -p -c http://chinese.joelonsoftware.com/

Linux 下直接用,Windows 下装 cygwin

我对 Python 基本不懂,但能解决问题就好,不管用什么。
There's more than one way to do it.

python-chinese-bounces at lists.python.cn 写于 2005-06-10 10:31:45:

> 使用urllib2(或urllib)的urlopen()打开一个http链接,将文件保存起来后,
> 你想怎么分析怎么分析。
> 
> 参考我的主页上的crawl即可。 http://pyrecord.freezope.org 也可以去google
上找一找
> 
> 在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
> > 
> > 我想通过http下载一个log文件在本地分析,可是我不清楚这里面的过程是什么
样的。 
> > 一般情况是点击一个link,然后browser会弹出文家下载对话框。 
> > 
> > 谁能介绍介绍,最好有一点实例code。谢谢。 

-------------- next part --------------
An HTML attachment was scrubbed...
URL: http://lists.exoweb.net/pipermail/python-chinese/attachments/20050610/38b88368/attachment.html

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 11:20

Zoom Quiet zoom.quiet at gmail.com
Fri Jun 10 11:20:06 HKT 2005

对!!
这本身就是Pythonic 精神!
什么好用,就用什么!!
Python 可以仅仅作为一种好用,听话的胶水是也乎!!
也可以直接调用你习惯的系统工具命令来作事儿的,
Python 不过可以自然,快捷的组织事务逻辑是也乎!

在 05-6-10,huanghao at ufgov.com.cn<huanghao at ufgov.com.cn> 写道:
>  
> 我用 wget,一句话搞定,例如: 
>  
> wget -r -np -p -c http://chinese.joelonsoftware.com/ 
>  
> Linux 下直接用,Windows 下装 cygwin 
>  
> 我对 Python 基本不懂,但能解决问题就好,不管用什么。 
> There's more than one way to do it. 
>  
> python-chinese-bounces at lists.python.cn 写于 2005-06-10
> 10:31:45:
>  
>  > 使用urllib2(或urllib)的urlopen()打开一个http链接,将文件保存起来后,
>  > 你想怎么分析怎么分析。
>  > 
>  > 参考我的主页上的crawl即可。 http://pyrecord.freezope.org 也可以去google上找一找
>  > 
>  > 在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
>  > >  
>  > > 我想通过http下载一个log文件在本地分析,可是我不清楚这里面的过程是什么样的。 
>  > > 一般情况是点击一个link,然后browser会弹出文家下载对话框。 
>  > >   
>  > > 谁能介绍介绍,最好有一点实例code。谢谢。 
>  
> _______________________________________________
> python-chinese list
> python-chinese at lists.python.cn
> http://python.cn/mailman/listinfo/python-chinese
> 
> 
> 


-- 
[Time is unimportant, only life important!]

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 11:23

清风 paradise.qingfeng at gmail.com
Fri Jun 10 11:23:14 HKT 2005

Zoom Quiet 总是强调Pythonic 精神哦:)。还有最近在研究古文?总是是也乎

2005/6/10, Zoom Quiet <zoom.quiet at gmail.com>:
> 对!!
> 这本身就是Pythonic 精神!
> 什么好用,就用什么!!
> Python 可以仅仅作为一种好用,听话的胶水是也乎!!
> 也可以直接调用你习惯的系统工具命令来作事儿的,
> Python 不过可以自然,快捷的组织事务逻辑是也乎!
> 
> 在 05-6-10,huanghao at ufgov.com.cn<huanghao at ufgov.com.cn> 写道:
> >
> > 我用 wget,一句话搞定,例如:
> >
> > wget -r -np -p -c http://chinese.joelonsoftware.com/
> >
> > Linux 下直接用,Windows 下装 cygwin
> >
> > 我对 Python 基本不懂,但能解决问题就好,不管用什么。
> > There's more than one way to do it.
> >
> > python-chinese-bounces at lists.python.cn 写于 2005-06-10
> > 10:31:45:
> >
> >  > 使用urllib2(或urllib)的urlopen()打开一个http链接,将文件保存起来后,
> >  > 你想怎么分析怎么分析。
> >  >
> >  > 参考我的主页上的crawl即可。 http://pyrecord.freezope.org 也可以去google上找一找
> >  >
> >  > 在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
> >  > >
> >  > > 我想通过http下载一个log文件在本地分析,可是我不清楚这里面的过程是什么样的。
> >  > > 一般情况是点击一个link,然后browser会弹出文家下载对话框。
> >  > >
> >  > > 谁能介绍介绍,最好有一点实例code。谢谢。
> >
> > _______________________________________________
> > python-chinese list
> > python-chinese at lists.python.cn
> > http://python.cn/mailman/listinfo/python-chinese
> >
> >
> >
> 
> --
> [Time is unimportant, only life important!]
> 
> _______________________________________________
> python-chinese list
> python-chinese at lists.python.cn
> http://python.cn/mailman/listinfo/python-chinese
> 
> 
> 


-- 
Blog:http://www.donews.net/changzheng

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 11:26

limodou limodou at gmail.com
Fri Jun 10 11:26:51 HKT 2005

其实方法是很多的,主要看个人习惯。比如我喜欢编程实现,有人喜欢使用工具组合。能要可以解决任务就行了。

在 05-6-10,清风<paradise.qingfeng at gmail.com> 写道:
> Zoom Quiet 总是强调Pythonic 精神哦:)。还有最近在研究古文?总是是也乎
> 
> 2005/6/10, Zoom Quiet <zoom.quiet at gmail.com>:
> > 对!!
> > 这本身就是Pythonic 精神!
> > 什么好用,就用什么!!
> > Python 可以仅仅作为一种好用,听话的胶水是也乎!!
> > 也可以直接调用你习惯的系统工具命令来作事儿的,
> > Python 不过可以自然,快捷的组织事务逻辑是也乎!
> >
> > 在 05-6-10,huanghao at ufgov.com.cn<huanghao at ufgov.com.cn> 写道:
> > >
> > > 我用 wget,一句话搞定,例如:
> > >
> > > wget -r -np -p -c http://chinese.joelonsoftware.com/
> > >
> > > Linux 下直接用,Windows 下装 cygwin
> > >
> > > 我对 Python 基本不懂,但能解决问题就好,不管用什么。
> > > There's more than one way to do it.
> > >
> > > python-chinese-bounces at lists.python.cn 写于 2005-06-10
> > > 10:31:45:
> > >
> > >  > 使用urllib2(或urllib)的urlopen()打开一个http链接,将文件保存起来后,
> > >  > 你想怎么分析怎么分析。
> > >  >
> > >  > 参考我的主页上的crawl即可。 http://pyrecord.freezope.org 也可以去google上找一找
> > >  >
> > >  > 在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
> > >  > >
> > >  > > 我想通过http下载一个log文件在本地分析,可是我不清楚这里面的过程是什么样的。
> > >  > > 一般情况是点击一个link,然后browser会弹出文家下载对话框。
> > >  > >
> > >  > > 谁能介绍介绍,最好有一点实例code。谢谢。
> > >
> > > _______________________________________________
> > > python-chinese list
> > > python-chinese at lists.python.cn
> > > http://python.cn/mailman/listinfo/python-chinese
> > >
> > >
> > >
> >
> > --
> > [Time is unimportant, only life important!]
> >
> > _______________________________________________
> > python-chinese list
> > python-chinese at lists.python.cn
> > http://python.cn/mailman/listinfo/python-chinese
> >
> >
> >
> 
> --
> Blog:http://www.donews.net/changzheng
> 
> _______________________________________________
> python-chinese list
> python-chinese at lists.python.cn
> http://python.cn/mailman/listinfo/python-chinese
> 
> 
> 


-- 
I like python! 
My Donews Blog: http://www.donews.net/limodou
New Google Maillist: http://groups-beta.google.com/group/python-cn

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 11:47

Qiangning Hong hongqn at gmail.com
Fri Jun 10 11:47:52 HKT 2005

嘿嘿,我自己用的下漫画抓图片的爬虫用的都是python代码里用os.system("wget
..."),是拿python当shell用了。

limodou wrote:
> 其实方法是很多的,主要看个人习惯。比如我喜欢编程实现,有人喜欢使用工具组合。能要可以解决任务就行了。
> 
> 在 05-6-10,清风<paradise.qingfeng at gmail.com> 写道:
> 
>>Zoom Quiet 总是强调Pythonic 精神哦:)。还有最近在研究古文?总是是也乎
>>
>>2005/6/10, Zoom Quiet <zoom.quiet at gmail.com>:
>>
>>>对!!
>>>这本身就是Pythonic 精神!
>>>什么好用,就用什么!!
>>>Python 可以仅仅作为一种好用,听话的胶水是也乎!!
>>>也可以直接调用你习惯的系统工具命令来作事儿的,
>>>Python 不过可以自然,快捷的组织事务逻辑是也乎!
>>>
>>>在 05-6-10,huanghao at ufgov.com.cn<huanghao at ufgov.com.cn> 写道:
>>>
>>>>我用 wget,一句话搞定,例如:
>>>>
>>>>wget -r -np -p -c http://chinese.joelonsoftware.com/
>>>>
>>>>Linux 下直接用,Windows 下装 cygwin
>>>>
>>>>我对 Python 基本不懂,但能解决问题就好,不管用什么。
>>>>There's more than one way to do it.
>>>>
>>>>python-chinese-bounces at lists.python.cn 写于 2005-06-10
>>>>10:31:45:
>>>>
>>>> > 使用urllib2(或urllib)的urlopen()打开一个http链接,将文件保存起来后,
>>>> > 你想怎么分析怎么分析。
>>>> >
>>>> > 参考我的主页上的crawl即可。 http://pyrecord.freezope.org 也可以去google上找一找
>>>> >
>>>> > 在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
>>>> > >
>>>> > > 我想通过http下载一个log文件在本地分析,可是我不清楚这里面的过程是什么样的。
>>>> > > 一般情况是点击一个link,然后browser会弹出文家下载对话框。
>>>> > >
>>>> > > 谁能介绍介绍,最好有一点实例code。谢谢。
>>>>
>>>>_______________________________________________
>>>>python-chinese list
>>>>python-chinese at lists.python.cn
>>>>http://python.cn/mailman/listinfo/python-chinese
>>>>
>>>>
>>>>
>>>
>>>--
>>>[Time is unimportant, only life important!]
>>>
>>>_______________________________________________
>>>python-chinese list
>>>python-chinese at lists.python.cn
>>>http://python.cn/mailman/listinfo/python-chinese
>>>
>>>
>>>
>>
>>--
>>Blog:http://www.donews.net/changzheng
>>
>>_______________________________________________
>>python-chinese list
>>python-chinese at lists.python.cn
>>http://python.cn/mailman/listinfo/python-chinese
>>
>>
>>
> 
> 
> 
> 
> ------------------------------------------------------------------------
> 
> _______________________________________________
> python-chinese list
> python-chinese at lists.python.cn
> http://python.cn/mailman/listinfo/python-chinese


-- 
Qiangning Hong

 ____________________________________________________________
/ 'Mounten' wird für drei Dinge benutzt: 'Aufsitzen' auf     \
| Pferde, 'einklinken' von Festplatten in Dateisysteme, und, |
| nun, 'besteigen' beim Sex.                                 |
|                                                            |
\ -- Christa Keil                                            /
 ------------------------------------------------------------
  \
   \ ,   _ ___.--'''`--''//-,-_--_.
      \`"' ` || \\ \ \\/ / // / ,-\\`,_
     /'`  \ \ || Y  | \|/ / // / - |__ `-,
    /@"\  ` \ `\ |  | ||/ // | \/  \  `-._`-,_.,
   /  _.-. `.-\,___/\ _/|_/_\_\/|_/ |     `-._._)
   `-'``/  /  |  // \__/\__  /  \__/ \
        `-'  /-\/  | -|   \__ \   |-' |
          __/\ / _/ \/ __,-'   ) ,' _|'
         (((__/(((_.' ((___..-'((__,'

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 12:22

lifr lifr_sh at yeah.net
Fri Jun 10 12:22:18 HKT 2005

我试验了一下,这样做就可以了。看来没有我想象的复杂哦。:)

import cookielib, urllib2, time,urllib,urlparse

_cj = cookielib.CookieJar()
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(_cj))

    fileUrl =
"http://"+host+"/gateway/ListLogFileDetail.do?isDownload=true&fileName;="
+logname

    page = opener.open(fileUrl).read()
    f = open(host+"."+logname, "wb")
    f.write(page)
    f.close()

BTW, 如果是在unlix/linux环境,用shell+wget+python是很好的解决办法。
但是大部分还是windows,所以只能用编程。

-----Original Message-----
From: python-chinese-bounces at lists.python.cn
[mailto:python-chinese-bounces at lists.python.cn] On Behalf Of Zoom Quiet
Sent: Friday, June 10, 2005 11:20 AM
To: python-chinese at lists.python.cn
Subject: Re: [python-chinese] 如何通过http下载文件


对!!
这本身就是Pythonic 精神!
什么好用,就用什么!!
Python 可以仅仅作为一种好用,听话的胶水是也乎!!
也可以直接调用你习惯的系统工具命令来作事儿的,
Python 不过可以自然,快捷的组织事务逻辑是也乎!

在 05-6-10,huanghao at ufgov.com.cn<huanghao at ufgov.com.cn> 写道:
>  
> 我用 wget,一句话搞定,例如:
>  
> wget -r -np -p -c http://chinese.joelonsoftware.com/
>  
> Linux 下直接用,Windows 下装 cygwin
>  
> 我对 Python 基本不懂,但能解决问题就好,不管用什么。
> There's more than one way to do it. 
>  
> python-chinese-bounces at lists.python.cn 写于 2005-06-10
> 10:31:45:
>  
>  > 使用urllib2(或urllib)的urlopen()打开一个http链接,将文件保存起来
后,
>  > 你想怎么分析怎么分析。
>  >
>  > 参考我的主页上的crawl即可。 http://pyrecord.freezope.org 也可以去
google上找一找
>  > 
>  > 在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
>  > >  
>  > > 我想通过http下载一个log文件在本地分析,可是我不清楚这里面的过程是
什么样的。 
>  > > 一般情况是点击一个link,然后browser会弹出文家下载对话框。 
>  > >   
>  > > 谁能介绍介绍,最好有一点实例code。谢谢。 
>  
> _______________________________________________
> python-chinese list
> python-chinese at lists.python.cn 
> http://python.cn/mailman/listinfo/python-chinese
> 
> 
> 


-- 
[Time is unimportant, only life important!]

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 13:31

limodou limodou at gmail.com
Fri Jun 10 13:31:05 HKT 2005

windows下可以装个cygwin

在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
> 我试验了一下,这样做就可以了。看来没有我想象的复杂哦。:)
> 
> import cookielib, urllib2, time,urllib,urlparse
> 
> _cj = cookielib.CookieJar()
> opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(_cj))
> 
>     fileUrl =
> "http://"+host+"/gateway/ListLogFileDetail.do?isDownload=true&fileName;="
> +logname
> 
>     page = opener.open(fileUrl).read()
>     f = open(host+"."+logname, "wb")
>     f.write(page)
>     f.close()
> 
> BTW, 如果是在unlix/linux环境,用shell+wget+python是很好的解决办法。
> 但是大部分还是windows,所以只能用编程。
> 
> -----Original Message-----
> From: python-chinese-bounces at lists.python.cn
> [mailto:python-chinese-bounces at lists.python.cn] On Behalf Of Zoom Quiet
> Sent: Friday, June 10, 2005 11:20 AM
> To: python-chinese at lists.python.cn
> Subject: Re: [python-chinese] 如何通过http下载文件
> 
> 对!!
> 这本身就是Pythonic 精神!
> 什么好用,就用什么!!
> Python 可以仅仅作为一种好用,听话的胶水是也乎!!
> 也可以直接调用你习惯的系统工具命令来作事儿的,
> Python 不过可以自然,快捷的组织事务逻辑是也乎!
> 
> 在 05-6-10,huanghao at ufgov.com.cn<huanghao at ufgov.com.cn> 写道:
> >
> > 我用 wget,一句话搞定,例如:
> >
> > wget -r -np -p -c http://chinese.joelonsoftware.com/
> >
> > Linux 下直接用,Windows 下装 cygwin
> >
> > 我对 Python 基本不懂,但能解决问题就好,不管用什么。
> > There's more than one way to do it.
> >
> > python-chinese-bounces at lists.python.cn 写于 2005-06-10
> > 10:31:45:
> >
> >  > 使用urllib2(或urllib)的urlopen()打开一个http链接,将文件保存起来
> 后,
> >  > 你想怎么分析怎么分析。
> >  >
> >  > 参考我的主页上的crawl即可。 http://pyrecord.freezope.org 也可以去
> google上找一找
> >  >
> >  > 在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
> >  > >
> >  > > 我想通过http下载一个log文件在本地分析,可是我不清楚这里面的过程是
> 什么样的。
> >  > > 一般情况是点击一个link,然后browser会弹出文家下载对话框。
> >  > >
> >  > > 谁能介绍介绍,最好有一点实例code。谢谢。
> >
> > _______________________________________________
> > python-chinese list
> > python-chinese at lists.python.cn
> > http://python.cn/mailman/listinfo/python-chinese
> >
> >
> >
> 
> --
> [Time is unimportant, only life important!]
> 
> _______________________________________________
> python-chinese list
> python-chinese at lists.python.cn
> http://python.cn/mailman/listinfo/python-chinese
> 
> 
> 


-- 
I like python! 
My Donews Blog: http://www.donews.net/limodou
New Google Maillist: http://groups-beta.google.com/group/python-cn

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 13:40

nEO gentoo.cn at gmail.com
Fri Jun 10 13:40:44 HKT 2005

不装cygwin也可以
有原生的wget呐

在 05-6-10,limodou<limodou at gmail.com> 写道:
> windows下可以装个cygwin
> 
> 在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
> > 我试验了一下,这样做就可以了。看来没有我想象的复杂哦。:)
> >
> > import cookielib, urllib2, time,urllib,urlparse
> >
> > _cj = cookielib.CookieJar()
> > opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(_cj))
> >
> >     fileUrl =
> > "http://"+host+"/gateway/ListLogFileDetail.do?isDownload=true&fileName;="
> > +logname
> >
> >     page = opener.open(fileUrl).read()
> >     f = open(host+"."+logname, "wb")
> >     f.write(page)
> >     f.close()
> >
> > BTW, 如果是在unlix/linux环境,用shell+wget+python是很好的解决办法。
> > 但是大部分还是windows,所以只能用编程。
> >
> > -----Original Message-----
> > From: python-chinese-bounces at lists.python.cn
> > [mailto:python-chinese-bounces at lists.python.cn] On Behalf Of Zoom Quiet
> > Sent: Friday, June 10, 2005 11:20 AM
> > To: python-chinese at lists.python.cn
> > Subject: Re: [python-chinese] 如何通过http下载文件
> >
> > 对!!
> > 这本身就是Pythonic 精神!
> > 什么好用,就用什么!!
> > Python 可以仅仅作为一种好用,听话的胶水是也乎!!
> > 也可以直接调用你习惯的系统工具命令来作事儿的,
> > Python 不过可以自然,快捷的组织事务逻辑是也乎!
> >
> > 在 05-6-10,huanghao at ufgov.com.cn<huanghao at ufgov.com.cn> 写道:
> > >
> > > 我用 wget,一句话搞定,例如:
> > >
> > > wget -r -np -p -c http://chinese.joelonsoftware.com/
> > >
> > > Linux 下直接用,Windows 下装 cygwin
> > >
> > > 我对 Python 基本不懂,但能解决问题就好,不管用什么。
> > > There's more than one way to do it.
> > >
> > > python-chinese-bounces at lists.python.cn 写于 2005-06-10
> > > 10:31:45:
> > >
> > >  > 使用urllib2(或urllib)的urlopen()打开一个http链接,将文件保存起来
> > 后,
> > >  > 你想怎么分析怎么分析。
> > >  >
> > >  > 参考我的主页上的crawl即可。 http://pyrecord.freezope.org 也可以去
> > google上找一找
> > >  >
> > >  > 在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
> > >  > >
> > >  > > 我想通过http下载一个log文件在本地分析,可是我不清楚这里面的过程是
> > 什么样的。
> > >  > > 一般情况是点击一个link,然后browser会弹出文家下载对话框。
> > >  > >
> > >  > > 谁能介绍介绍,最好有一点实例code。谢谢。
> > >
> > > _______________________________________________
> > > python-chinese list
> > > python-chinese at lists.python.cn
> > > http://python.cn/mailman/listinfo/python-chinese
> > >
> > >
> > >
> >
> > --
> > [Time is unimportant, only life important!]
> >
> > _______________________________________________
> > python-chinese list
> > python-chinese at lists.python.cn
> > http://python.cn/mailman/listinfo/python-chinese
> >
> >
> >
> 
> --
> I like python!
> My Donews Blog: http://www.donews.net/limodou
> New Google Maillist: http://groups-beta.google.com/group/python-cn
> 
> _______________________________________________
> python-chinese list
> python-chinese at lists.python.cn
> http://python.cn/mailman/listinfo/python-chinese
> 
> 
> 


-- 
I'm the one, powered by nEO

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 13:43

epaulin epaulin at gmail.com
Fri Jun 10 13:43:47 HKT 2005

有人移植的吧,并非官方的;

On 6/10/05, nEO <gentoo.cn at gmail.com> wrote:
> 不装cygwin也可以
> 有原生的wget呐
> 
> 在 05-6-10,limodou<limodou at gmail.com> 写道:
> > windows下可以装个cygwin
> >
> > 在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
> > > 我试验了一下,这样做就可以了。看来没有我想象的复杂哦。:)
> > >
> > > import cookielib, urllib2, time,urllib,urlparse
> > >
> > > _cj = cookielib.CookieJar()
> > > opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(_cj))
> > >
> > >     fileUrl =
> > > "http://"+host+"/gateway/ListLogFileDetail.do?isDownload=true&fileName;="
> > > +logname
> > >
> > >     page = opener.open(fileUrl).read()
> > >     f = open(host+"."+logname, "wb")
> > >     f.write(page)
> > >     f.close()
> > >
> > > BTW, 如果是在unlix/linux环境,用shell+wget+python是很好的解决办法。
> > > 但是大部分还是windows,所以只能用编程。
> > >
> > > -----Original Message-----
> > > From: python-chinese-bounces at lists.python.cn
> > > [mailto:python-chinese-bounces at lists.python.cn] On Behalf Of Zoom Quiet
> > > Sent: Friday, June 10, 2005 11:20 AM
> > > To: python-chinese at lists.python.cn
> > > Subject: Re: [python-chinese] 如何通过http下载文件
> > >
> > > 对!!
> > > 这本身就是Pythonic 精神!
> > > 什么好用,就用什么!!
> > > Python 可以仅仅作为一种好用,听话的胶水是也乎!!
> > > 也可以直接调用你习惯的系统工具命令来作事儿的,
> > > Python 不过可以自然,快捷的组织事务逻辑是也乎!
> > >
> > > 在 05-6-10,huanghao at ufgov.com.cn<huanghao at ufgov.com.cn> 写道:
> > > >
> > > > 我用 wget,一句话搞定,例如:
> > > >
> > > > wget -r -np -p -c http://chinese.joelonsoftware.com/
> > > >
> > > > Linux 下直接用,Windows 下装 cygwin
> > > >
> > > > 我对 Python 基本不懂,但能解决问题就好,不管用什么。
> > > > There's more than one way to do it.
> > > >
> > > > python-chinese-bounces at lists.python.cn 写于 2005-06-10
> > > > 10:31:45:
> > > >
> > > >  > 使用urllib2(或urllib)的urlopen()打开一个http链接,将文件保存起来
> > > 后,
> > > >  > 你想怎么分析怎么分析。
> > > >  >
> > > >  > 参考我的主页上的crawl即可。 http://pyrecord.freezope.org 也可以去
> > > google上找一找
> > > >  >
> > > >  > 在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
> > > >  > >
> > > >  > > 我想通过http下载一个log文件在本地分析,可是我不清楚这里面的过程是
> > > 什么样的。
> > > >  > > 一般情况是点击一个link,然后browser会弹出文家下载对话框。
> > > >  > >
> > > >  > > 谁能介绍介绍,最好有一点实例code。谢谢。
> > > >
> > > > _______________________________________________
> > > > python-chinese list
> > > > python-chinese at lists.python.cn
> > > > http://python.cn/mailman/listinfo/python-chinese
> > > >
> > > >
> > > >
> > >
> > > --
> > > [Time is unimportant, only life important!]
> > >
> > > _______________________________________________
> > > python-chinese list
> > > python-chinese at lists.python.cn
> > > http://python.cn/mailman/listinfo/python-chinese
> > >
> > >
> > >
> >
> > --
> > I like python!
> > My Donews Blog: http://www.donews.net/limodou
> > New Google Maillist: http://groups-beta.google.com/group/python-cn
> >
> > _______________________________________________
> > python-chinese list
> > python-chinese at lists.python.cn
> > http://python.cn/mailman/listinfo/python-chinese
> >
> >
> >
> 
> 
> --
> I'm the one, powered by nEO
> 
> _______________________________________________
> python-chinese list
> python-chinese at lists.python.cn
> http://python.cn/mailman/listinfo/python-chinese
> 
> 
>

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 13:47

fla liu fla.liu at gmail.com
Fri Jun 10 13:47:43 HKT 2005

如果更复杂的需要做表单提交之类的操作
看看
pycurl ,绝对强悍

 在05-6-10,epaulin <epaulin at gmail.com> 写道: 
> 
> 有人移植的吧,并非官方的;
> 
> On 6/10/05, nEO <gentoo.cn at gmail.com> wrote:
> > 不装cygwin也可以
> > 有原生的wget呐
> >
> > 在 05-6-10,limodou<limodou at gmail.com> 写道:
> > > windows下可以装个cygwin
> > >
> > > 在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
> > > > 我试验了一下,这样做就可以了。看来没有我想象的复杂哦。:)
> > > >
> > > > import cookielib, urllib2, time,urllib,urlparse
> > > >
> > > > _cj = cookielib.CookieJar()
> > > > opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(_cj))
> > > >
> > > > fileUrl =
> > > > 
> "http://"+host+"/gateway/ListLogFileDetail.do?isDownload=true&fileName;="
> > > > +logname
> > > >
> > > > page = opener.open(fileUrl).read()
> > > > f = open(host+"."+logname, "wb")
> > > > f.write(page)
> > > > f.close()
> > > >
> > > > BTW, 如果是在unlix/linux环境,用shell+wget+python是很好的解决办法。
> > > > 但是大部分还是windows,所以只能用编程。
> > > >
> > > > -----Original Message-----
> > > > From: python-chinese-bounces at lists.python.cn
> > > > [mailto:python-chinese-bounces at lists.python.cn] On Behalf Of Zoom 
> Quiet
> > > > Sent: Friday, June 10, 2005 11:20 AM
> > > > To: python-chinese at lists.python.cn
> > > > Subject: Re: [python-chinese] 如何通过http下载文件
> > > >
> > > > 对!!
> > > > 这本身就是Pythonic 精神!
> > > > 什么好用,就用什么!!
> > > > Python 可以仅仅作为一种好用,听话的胶水是也乎!!
> > > > 也可以直接调用你习惯的系统工具命令来作事儿的,
> > > > Python 不过可以自然,快捷的组织事务逻辑是也乎!
> > > >
> > > > 在 05-6-10,huanghao at ufgov.com.cn <http://ufgov.com.cn><
> huanghao at ufgov.com.cn> 写道:
> > > > >
> > > > > 我用 wget,一句话搞定,例如:
> > > > >
> > > > > wget -r -np -p -c http://chinese.joelonsoftware.com/
> > > > >
> > > > > Linux 下直接用,Windows 下装 cygwin
> > > > >
> > > > > 我对 Python 基本不懂,但能解决问题就好,不管用什么。
> > > > > There's more than one way to do it.
> > > > >
> > > > > python-chinese-bounces at lists.python.cn 写于 2005-06-10
> > > > > 10:31:45:
> > > > >
> > > > > > 使用urllib2(或urllib)的urlopen()打开一个http链接,将文件保存起来
> > > > 后,
> > > > > > 你想怎么分析怎么分析。
> > > > > >
> > > > > > 参考我的主页上的crawl即可。 http://pyrecord.freezope.org 也可以去
> > > > google上找一找
> > > > > >
> > > > > > 在 05-6-10,lifr<lifr_sh at yeah.net> 写道:
> > > > > > >
> > > > > > > 我想通过http下载一个log文件在本地分析,可是我不清楚这里面的过程是
> > > > 什么样的。
> > > > > > > 一般情况是点击一个link,然后browser会弹出文家下载对话框。
> > > > > > >
> > > > > > > 谁能介绍介绍,最好有一点实例code。谢谢。
> > > > >
> > > > > _______________________________________________
> > > > > python-chinese list
> > > > > python-chinese at lists.python.cn
> > > > > http://python.cn/mailman/listinfo/python-chinese
> > > > >
> > > > >
> > > > >
> > > >
> > > > --
> > > > [Time is unimportant, only life important!]
> > > >
> > > > _______________________________________________
> > > > python-chinese list
> > > > python-chinese at lists.python.cn
> > > > http://python.cn/mailman/listinfo/python-chinese
> > > >
> > > >
> > > >
> > >
> > > --
> > > I like python!
> > > My Donews Blog: http://www.donews.net/limodou
> > > New Google Maillist: http://groups-beta.google.com/group/python-cn
> > >
> > > _______________________________________________
> > > python-chinese list
> > > python-chinese at lists.python.cn
> > > http://python.cn/mailman/listinfo/python-chinese
> > >
> > >
> > >
> >
> >
> > --
> > I'm the one, powered by nEO
> >
> > _______________________________________________
> > python-chinese list
> > python-chinese at lists.python.cn
> > http://python.cn/mailman/listinfo/python-chinese
> >
> >
> >
> 
> _______________________________________________
> python-chinese list
> python-chinese at lists.python.cn
> http://python.cn/mailman/listinfo/python-chinese
> 
> 
>
-------------- next part --------------
An HTML attachment was scrubbed...
URL: http://lists.exoweb.net/pipermail/python-chinese/attachments/20050610/6ef69503/attachment-0001.html

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 15:22

hw1979 hw1979 at gmail.com
Fri Jun 10 15:22:26 HKT 2005

我用的是twisted.web.client :)

from twisted.internet import defer,reactor,protocol
import twisted.web.client as WebClient
import StringIO

class stringFile(StringIO.StringIO):
    def close(self):
        pass
    def sureClose(self):
        StringIO.StringIO.close(self)
def done(z,s):
    print s.getvalue()
    print 'z=',z
    s.sureClose()
    reactor.stop()
if __name__ == '__main__':
    fh = stringFile()
    url = 'http://www.google.com'
    d = WebClient.downloadPage(url, fh,supportPartial=1)
    d.addCallback(done,fh)
    reactor.run()


fla liu 写道:

> 如果更复杂的需要做表单提交之类的操作
> 看看
> pycurl ,绝对强悍
>
>  
> 在05-6-10,*epaulin* <epaulin at gmail.com epaulin at gmail.com>> 写 
> 道:
>
>     有人移植的吧,并非官方的;
>
>     On 6/10/05, nEO <gentoo.cn at gmail.com gentoo.cn at gmail.com>>
>     wrote:
>     > 不装cygwin也可以
>     > 有原生的wget呐
>     >
>     > 在 05-6-10,limodou<limodou at gmail.com
>     limodou at gmail.com>> 写道:
>     > > windows下可以装个cygwin
>     > >
>     > > 在 05-6-10,lifr< lifr_sh at yeah.net lifr_sh at yeah.net>>
>     写道:
>     > > > 我试验了一下,这样做就可以了。看来没有我想象的复杂哦。:)
>     > > >
>     > > > import cookielib, urllib2, time,urllib,urlparse
>     > > >
>     > > > _cj = cookielib.CookieJar ()
>     > > > opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(_cj))
>     > > >
>     > > >     fileUrl =
>     > > >
>     "http://"+host+"/gateway/ListLogFileDetail.do?isDownload=true&fileName;="
>
>     > > > +logname
>     > > >
>     > > >     page = opener.open(fileUrl).read()
>     > > >     f = open(host+"."+logname, "wb")
>     > > >     f.write(page)
>     > > >     f.close()
>     > > >
>     > > > BTW, 如果是在unlix/linux环境,用shell+wget+python是很好的
>     解决办法。
>     > > > 但是大部分还是windows,所以只能用编程。
>     > > >
>     > > > -----Original Message-----
>     > > > From: python-chinese-bounces at lists.python.cn
>     python-chinese-bounces at lists.python.cn>
>     > > > [mailto:python-chinese-bounces at lists.python.cn
>     python-chinese-bounces at lists.python.cn> ] On Behalf Of
>     Zoom Quiet
>     > > > Sent: Friday, June 10, 2005 11:20 AM
>     > > > To: python-chinese at lists.python.cn
>     python-chinese at lists.python.cn>
>     > > > Subject: Re: [python-chinese] 如何通过http下载文件
>     > > >
>     > > > 对!!
>     > > > 这本身就是Pythonic 精神!
>     > > > 什么好用,就用什么!!
>     > > > Python 可以仅仅作为一种好用,听话的胶水是也乎!!
>     > > > 也可以直接调用你习惯的系统工具命令来作事儿的,
>     > > > Python 不过可以自然,快捷的组织事务逻辑是也乎!
>     > > >
>     > > > 在 05-6-10,huanghao at ufgov.com.cn
>     <http://ufgov.com.cn><huanghao at ufgov.com.cn
>     huanghao at ufgov.com.cn>> 写道:
>     > > > >
>     > > > > 我用 wget,一句话搞定,例如:
>     > > > >
>     > > > > wget -r -np -p -c http://chinese.joelonsoftware.com/
>     > > > >
>     > > > > Linux 下直接用,Windows 下装 cygwin
>     > > > >
>     > > > > 我对 Python 基本不懂,但能解决问题就好,不管用什么。
>     > > > > There's more than one way to do it.
>     > > > >
>     > > > > python-chinese-bounces at lists.python.cn
>     python-chinese-bounces at lists.python.cn> 写于 2005-06-10
>     > > > > 10:31:45:
>     > > > >
>     > > > >  > 使用urllib2(或urllib)的urlopen()打开一个http链接,将文
>     件保存起来
>     > > > 后,
>     > > > >  > 你想怎么分析怎么分析。
>     > > > >  >
>     > > > >  > 参考我的主页上的crawl即可。
>     http://pyrecord.freezope.org 也可以去
>     > > > google上找一找
>     > > > >  >
>     > > > >  > 在 05-6-10,lifr< lifr_sh at yeah.net
>     lifr_sh at yeah.net>> 写道:
>     > > > >  > >
>     > > > >  > > 我想通过http下载一个log文件在本地分析,可是我不清楚这
>     里面的过程是
>     > > > 什么样的。
>     > > > >  > > 一般情况是点击一个link,然后browser会弹出文家下载对话
>     框。
>     > > > >  > >
>     > > > >  > > 谁能介绍介绍,最好有一点实例code。谢谢。
>     > > > >
>     > > > > _______________________________________________
>     > > > > python-chinese list
>     > > > > python-chinese at lists.python.cn
>     python-chinese at lists.python.cn>
>     > > > > http://python.cn/mailman/listinfo/python-chinese
>     <http://python.cn/mailman/listinfo/python-chinese>
>     > > > >
>     > > > >
>     > > > >
>     > > >
>     > > > --
>     > > > [Time is unimportant, only life important!]
>     > > >
>     > > > _______________________________________________
>     > > > python-chinese list
>     > > > python-chinese at lists.python.cn
>     python-chinese at lists.python.cn>
>     > > > http://python.cn/mailman/listinfo/python-chinese
>     <http://python.cn/mailman/listinfo/python-chinese>
>     > > >
>     > > >
>     > > >
>     > >
>     > > --
>     > > I like python!
>     > > My Donews Blog: http://www.donews.net/limodou
>     > > New Google Maillist: http://groups-beta.google.com/group/python-cn
>     > >
>     > > _______________________________________________
>     > > python-chinese list
>     > > python-chinese at lists.python.cn
>     python-chinese at lists.python.cn>
>     > > http://python.cn/mailman/listinfo/python-chinese
>     > >
>     > >
>     > >
>     >
>     >
>     > --
>     > I'm the one, powered by nEO
>     >
>     > _______________________________________________
>     > python-chinese list
>     > python-chinese at lists.python.cn
>     python-chinese at lists.python.cn>
>     > http://python.cn/mailman/listinfo/python-chinese
>     >
>     >
>     >
>
>     _______________________________________________
>     python-chinese list
>     python-chinese at lists.python.cn python-chinese at lists.python.cn>
>     http://python.cn/mailman/listinfo/python-chinese
>
>
>
>------------------------------------------------------------------------
>
>_______________________________________________
>python-chinese list
>python-chinese at lists.python.cn
>http://python.cn/mailman/listinfo/python-chinese
>  
>

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 15:34

lifr lifr_sh at yeah.net
Fri Jun 10 15:34:18 HKT 2005

twisted,听说过,不了解。能否简单介绍介绍。



-----Original Message-----
From: python-chinese-bounces at lists.python.cn
[mailto:python-chinese-bounces at lists.python.cn] On Behalf Of hw1979
Sent: Friday, June 10, 2005 3:22 PM
To: python-chinese at lists.python.cn
Subject: Re: [python-chinese] 如何通过http下载文件


我用的是twisted.web.client :)

from twisted.internet import defer,reactor,protocol
import twisted.web.client as WebClient
import StringIO

class stringFile(StringIO.StringIO):
    def close(self):
        pass
    def sureClose(self):
        StringIO.StringIO.close(self)
def done(z,s):
    print s.getvalue()
    print 'z=',z
    s.sureClose()
    reactor.stop()
if __name__ == '__main__':
    fh = stringFile()
    url = 'http://www.google.com'
    d = WebClient.downloadPage(url, fh,supportPartial=1)
    d.addCallback(done,fh)
    reactor.run()


fla liu 写道:

> 如果更复杂的需要做表单提交之类的操作
> 看看
> pycurl ,绝对强悍
>
>  
> 在05-6-10,*epaulin* <epaulin at gmail.com epaulin at gmail.com>> 写
> 道:
>
>     有人移植的吧,并非官方的;
>
>     On 6/10/05, nEO <gentoo.cn at gmail.com gentoo.cn at gmail.com>>
>     wrote:
>     > 不装cygwin也可以
>     > 有原生的wget呐
>     >
>     > 在 05-6-10,limodou<limodou at gmail.com
>     limodou at gmail.com>> 写道:
>     > > windows下可以装个cygwin
>     > >
>     > > 在 05-6-10,lifr< lifr_sh at yeah.net lifr_sh at yeah.net>>
>     写道:
>     > > > 我试验了一下,这样做就可以了。看来没有我想象的复杂哦。:)
>     > > >
>     > > > import cookielib, urllib2, time,urllib,urlparse
>     > > >
>     > > > _cj = cookielib.CookieJar ()
>     > > > opener =
urllib2.build_opener(urllib2.HTTPCookieProcessor(_cj))
>     > > >
>     > > >     fileUrl =
>     > > >
>     
> "http://"+host+"/gateway/ListLogFileDetail.do?isDownload=true&fileName;
> ="
>
>     > > > +logname
>     > > >
>     > > >     page = opener.open(fileUrl).read()
>     > > >     f = open(host+"."+logname, "wb")
>     > > >     f.write(page)
>     > > >     f.close()
>     > > >
>     > > > BTW, 如果是在unlix/linux环境,用shell+wget+python是很好的
>     解决办法。
>     > > > 但是大部分还是windows,所以只能用编程。
>     > > >
>     > > > -----Original Message-----
>     > > > From: python-chinese-bounces at lists.python.cn
>     python-chinese-bounces at lists.python.cn>
>     > > > [mailto:python-chinese-bounces at lists.python.cn
>     python-chinese-bounces at lists.python.cn> ] On Behalf Of
>     Zoom Quiet
>     > > > Sent: Friday, June 10, 2005 11:20 AM
>     > > > To: python-chinese at lists.python.cn
>     python-chinese at lists.python.cn>
>     > > > Subject: Re: [python-chinese] 如何通过http下载文件
>     > > >
>     > > > 对!!
>     > > > 这本身就是Pythonic 精神!
>     > > > 什么好用,就用什么!!
>     > > > Python 可以仅仅作为一种好用,听话的胶水是也乎!!
>     > > > 也可以直接调用你习惯的系统工具命令来作事儿的,
>     > > > Python 不过可以自然,快捷的组织事务逻辑是也乎!
>     > > >
>     > > > 在 05-6-10,huanghao at ufgov.com.cn
>     <http://ufgov.com.cn><huanghao at ufgov.com.cn
>     huanghao at ufgov.com.cn>> 写道:
>     > > > >
>     > > > > 我用 wget,一句话搞定,例如:
>     > > > >
>     > > > > wget -r -np -p -c http://chinese.joelonsoftware.com/
>     > > > >
>     > > > > Linux 下直接用,Windows 下装 cygwin
>     > > > >
>     > > > > 我对 Python 基本不懂,但能解决问题就好,不管用什么。
>     > > > > There's more than one way to do it.
>     > > > >
>     > > > > python-chinese-bounces at lists.python.cn
>     python-chinese-bounces at lists.python.cn> 写于 2005-06-10
>     > > > > 10:31:45:
>     > > > >
>     > > > >  > 使用urllib2(或urllib)的urlopen()打开一个http链接,将文
>     件保存起来
>     > > > 后,
>     > > > >  > 你想怎么分析怎么分析。
>     > > > >  >
>     > > > >  > 参考我的主页上的crawl即可。
>     http://pyrecord.freezope.org 也可以去
>     > > > google上找一找
>     > > > >  >
>     > > > >  > 在 05-6-10,lifr< lifr_sh at yeah.net
>     lifr_sh at yeah.net>> 写道:
>     > > > >  > >
>     > > > >  > > 我想通过http下载一个log文件在本地分析,可是我不清楚这
>     里面的过程是
>     > > > 什么样的。
>     > > > >  > > 一般情况是点击一个link,然后browser会弹出文家下载对话
>     框。
>     > > > >  > >
>     > > > >  > > 谁能介绍介绍,最好有一点实例code。谢谢。
>     > > > >
>     > > > > _______________________________________________
>     > > > > python-chinese list
>     > > > > python-chinese at lists.python.cn
>     python-chinese at lists.python.cn>
>     > > > > http://python.cn/mailman/listinfo/python-chinese
>     <http://python.cn/mailman/listinfo/python-chinese>
>     > > > >
>     > > > >
>     > > > >
>     > > >
>     > > > --
>     > > > [Time is unimportant, only life important!]
>     > > >
>     > > > _______________________________________________
>     > > > python-chinese list
>     > > > python-chinese at lists.python.cn
>     python-chinese at lists.python.cn>
>     > > > http://python.cn/mailman/listinfo/python-chinese
>     <http://python.cn/mailman/listinfo/python-chinese>
>     > > >
>     > > >
>     > > >
>     > >
>     > > --
>     > > I like python!
>     > > My Donews Blog: http://www.donews.net/limodou
>     > > New Google Maillist:
http://groups-beta.google.com/group/python-cn
>     > >
>     > > _______________________________________________
>     > > python-chinese list
>     > > python-chinese at lists.python.cn
>     python-chinese at lists.python.cn>
>     > > http://python.cn/mailman/listinfo/python-chinese
>     > >
>     > >
>     > >
>     >
>     >
>     > --
>     > I'm the one, powered by nEO
>     >
>     > _______________________________________________
>     > python-chinese list
>     > python-chinese at lists.python.cn
>     python-chinese at lists.python.cn>
>     > http://python.cn/mailman/listinfo/python-chinese
>     >
>     >
>     >
>
>     _______________________________________________
>     python-chinese list
>     python-chinese at lists.python.cn
python-chinese at lists.python.cn>
>     http://python.cn/mailman/listinfo/python-chinese
>
>
>
>-----------------------------------------------------------------------
>-
>
>_______________________________________________
>python-chinese list
>python-chinese at lists.python.cn 
>http://python.cn/mailman/listinfo/python-chinese
>  
>
_______________________________________________
python-chinese list
python-chinese at lists.python.cn
http://python.cn/mailman/listinfo/python-chinese





[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 15:35

limodou limodou at gmail.com
Fri Jun 10 15:35:07 HKT 2005

使用twisted真有杀鸡用宰牛刀的感觉。

2005/6/10, hw1979 <hw1979 at gmail.com>:
> 我用的是twisted.web.client :)
> 
> from twisted.internet import defer,reactor,protocol
> import twisted.web.client as WebClient
> import StringIO
> 
> class stringFile(StringIO.StringIO):
>     def close(self):
>         pass
>     def sureClose(self):
>         StringIO.StringIO.close(self)
> def done(z,s):
>     print s.getvalue()
>     print 'z=',z
>     s.sureClose()
>     reactor.stop()
> if __name__ == '__main__':
>     fh = stringFile()
>     url = 'http://www.google.com'
>     d = WebClient.downloadPage(url, fh,supportPartial=1)
>     d.addCallback(done,fh)
>     reactor.run()
> 
> fla liu 写道:
> 
> > 如果更复杂的需要做表单提交之类的操作
> > 看看
> > pycurl ,绝对强悍
> >
> >
> > 在05-6-10,*epaulin* <epaulin at gmail.com epaulin at gmail.com>> 写
> > 道:
> >
> >     有人移植的吧,并非官方的;
> >
> >     On 6/10/05, nEO <gentoo.cn at gmail.com gentoo.cn at gmail.com>>
> >     wrote:
> >     > 不装cygwin也可以
> >     > 有原生的wget呐
> >     >
> >     > 在 05-6-10,limodou<limodou at gmail.com
> >     limodou at gmail.com>> 写道:
> >     > > windows下可以装个cygwin
> >     > >
> >     > > 在 05-6-10,lifr< lifr_sh at yeah.net lifr_sh at yeah.net>>
> >     写道:
> >     > > > 我试验了一下,这样做就可以了。看来没有我想象的复杂哦。:)
> >     > > >
> >     > > > import cookielib, urllib2, time,urllib,urlparse
> >     > > >
> >     > > > _cj = cookielib.CookieJar ()
> >     > > > opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(_cj))
> >     > > >
> >     > > >     fileUrl =
> >     > > >
> >     "http://"+host+"/gateway/ListLogFileDetail.do?isDownload=true&fileName;="
> >
> >     > > > +logname
> >     > > >
> >     > > >     page = opener.open(fileUrl).read()
> >     > > >     f = open(host+"."+logname, "wb")
> >     > > >     f.write(page)
> >     > > >     f.close()
> >     > > >
> >     > > > BTW, 如果是在unlix/linux环境,用shell+wget+python是很好的
> >     解决办法。
> >     > > > 但是大部分还是windows,所以只能用编程。
> >     > > >
> >     > > > -----Original Message-----
> >     > > > From: python-chinese-bounces at lists.python.cn
> >     python-chinese-bounces at lists.python.cn>
> >     > > > [mailto:python-chinese-bounces at lists.python.cn
> >     python-chinese-bounces at lists.python.cn> ] On Behalf Of
> >     Zoom Quiet
> >     > > > Sent: Friday, June 10, 2005 11:20 AM
> >     > > > To: python-chinese at lists.python.cn
> >     python-chinese at lists.python.cn>
> >     > > > Subject: Re: [python-chinese] 如何通过http下载文件
> >     > > >
> >     > > > 对!!
> >     > > > 这本身就是Pythonic 精神!
> >     > > > 什么好用,就用什么!!
> >     > > > Python 可以仅仅作为一种好用,听话的胶水是也乎!!
> >     > > > 也可以直接调用你习惯的系统工具命令来作事儿的,
> >     > > > Python 不过可以自然,快捷的组织事务逻辑是也乎!
> >     > > >
> >     > > > 在 05-6-10,huanghao at ufgov.com.cn
> >     <http://ufgov.com.cn><huanghao at ufgov.com.cn
> >     huanghao at ufgov.com.cn>> 写道:
> >     > > > >
> >     > > > > 我用 wget,一句话搞定,例如:
> >     > > > >
> >     > > > > wget -r -np -p -c http://chinese.joelonsoftware.com/
> >     > > > >
> >     > > > > Linux 下直接用,Windows 下装 cygwin
> >     > > > >
> >     > > > > 我对 Python 基本不懂,但能解决问题就好,不管用什么。
> >     > > > > There's more than one way to do it.
> >     > > > >
> >     > > > > python-chinese-bounces at lists.python.cn
> >     python-chinese-bounces at lists.python.cn> 写于 2005-06-10
> >     > > > > 10:31:45:
> >     > > > >
> >     > > > >  > 使用urllib2(或urllib)的urlopen()打开一个http链接,将文
> >     件保存起来
> >     > > > 后,
> >     > > > >  > 你想怎么分析怎么分析。
> >     > > > >  >
> >     > > > >  > 参考我的主页上的crawl即可。
> >     http://pyrecord.freezope.org 也可以去
> >     > > > google上找一找
> >     > > > >  >
> >     > > > >  > 在 05-6-10,lifr< lifr_sh at yeah.net
> >     lifr_sh at yeah.net>> 写道:
> >     > > > >  > >
> >     > > > >  > > 我想通过http下载一个log文件在本地分析,可是我不清楚这
> >     里面的过程是
> >     > > > 什么样的。
> >     > > > >  > > 一般情况是点击一个link,然后browser会弹出文家下载对话
> >     框。
> >     > > > >  > >
> >     > > > >  > > 谁能介绍介绍,最好有一点实例code。谢谢。
> >     > > > >
> >     > > > > _______________________________________________
> >     > > > > python-chinese list
> >     > > > > python-chinese at lists.python.cn
> >     python-chinese at lists.python.cn>
> >     > > > > http://python.cn/mailman/listinfo/python-chinese
> >     <http://python.cn/mailman/listinfo/python-chinese>
> >     > > > >
> >     > > > >
> >     > > > >
> >     > > >
> >     > > > --
> >     > > > [Time is unimportant, only life important!]
> >     > > >
> >     > > > _______________________________________________
> >     > > > python-chinese list
> >     > > > python-chinese at lists.python.cn
> >     python-chinese at lists.python.cn>
> >     > > > http://python.cn/mailman/listinfo/python-chinese
> >     <http://python.cn/mailman/listinfo/python-chinese>
> >     > > >
> >     > > >
> >     > > >
> >     > >
> >     > > --
> >     > > I like python!
> >     > > My Donews Blog: http://www.donews.net/limodou
> >     > > New Google Maillist: http://groups-beta.google.com/group/python-cn
> >     > >
> >     > > _______________________________________________
> >     > > python-chinese list
> >     > > python-chinese at lists.python.cn
> >     python-chinese at lists.python.cn>
> >     > > http://python.cn/mailman/listinfo/python-chinese
> >     > >
> >     > >
> >     > >
> >     >
> >     >
> >     > --
> >     > I'm the one, powered by nEO
> >     >
> >     > _______________________________________________
> >     > python-chinese list
> >     > python-chinese at lists.python.cn
> >     python-chinese at lists.python.cn>
> >     > http://python.cn/mailman/listinfo/python-chinese
> >     >
> >     >
> >     >
> >
> >     _______________________________________________
> >     python-chinese list
> >     python-chinese at lists.python.cn python-chinese at lists.python.cn>
> >     http://python.cn/mailman/listinfo/python-chinese
> >
> >
> >
> >------------------------------------------------------------------------
> >
> >_______________________________________________
> >python-chinese list
> >python-chinese at lists.python.cn
> >http://python.cn/mailman/listinfo/python-chinese
> >
> >
> _______________________________________________
> python-chinese list
> python-chinese at lists.python.cn
> http://python.cn/mailman/listinfo/python-chinese
> 


-- 
I like python! 
My Donews Blog: http://www.donews.net/limodou
New Google Maillist: http://groups-beta.google.com/group/python-cn

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

2005年06月10日 星期五 15:39

hw1979 hw1979 at gmail.com
Fri Jun 10 15:39:18 HKT 2005

哈哈,是啊,可能下载网页的时间还没有等模块加载完的时间长。这是我的irc 
bot的一部分,昨天刚写的,现学现卖^-^

limodou 写道:

>使用twisted真有杀鸡用宰牛刀的感觉。
>
>2005/6/10, hw1979 <hw1979 at gmail.com>:
>  
>
>>我用的是twisted.web.client :)
>>
>>from twisted.internet import defer,reactor,protocol
>>import twisted.web.client as WebClient
>>import StringIO
>>
>>class stringFile(StringIO.StringIO):
>>    def close(self):
>>        pass
>>    def sureClose(self):
>>        StringIO.StringIO.close(self)
>>def done(z,s):
>>    print s.getvalue()
>>    print 'z=',z
>>    s.sureClose()
>>    reactor.stop()
>>if __name__ == '__main__':
>>    fh = stringFile()
>>    url = 'http://www.google.com'
>>    d = WebClient.downloadPage(url, fh,supportPartial=1)
>>    d.addCallback(done,fh)
>>    reactor.run()
>>
>>fla liu 写道:
>>
>>    
>>
>>>如果更复杂的需要做表单提交之类的操作
>>>看看
>>>pycurl ,绝对强悍
>>>
>>>
>>>在05-6-10,*epaulin* <epaulin at gmail.com epaulin at gmail.com>> 写
>>>道:
>>>
>>>    有人移植的吧,并非官方的;
>>>
>>>    On 6/10/05, nEO <gentoo.cn at gmail.com gentoo.cn at gmail.com>>
>>>    wrote:
>>>    > 不装cygwin也可以
>>>    > 有原生的wget呐
>>>    >
>>>    > 在 05-6-10,limodou<limodou at gmail.com
>>>    limodou at gmail.com>> 写道:
>>>    > > windows下可以装个cygwin
>>>    > >
>>>    > > 在 05-6-10,lifr< lifr_sh at yeah.net lifr_sh at yeah.net>>
>>>    写道:
>>>    > > > 我试验了一下,这样做就可以了。看来没有我想象的复杂哦。:)
>>>    > > >
>>>    > > > import cookielib, urllib2, time,urllib,urlparse
>>>    > > >
>>>    > > > _cj = cookielib.CookieJar ()
>>>    > > > opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(_cj))
>>>    > > >
>>>    > > >     fileUrl =
>>>    > > >
>>>    "http://"+host+"/gateway/ListLogFileDetail.do?isDownload=true&fileName;="
>>>
>>>    > > > +logname
>>>    > > >
>>>    > > >     page = opener.open(fileUrl).read()
>>>    > > >     f = open(host+"."+logname, "wb")
>>>    > > >     f.write(page)
>>>    > > >     f.close()
>>>    > > >
>>>    > > > BTW, 如果是在unlix/linux环境,用shell+wget+python是很好的
>>>    解决办法。
>>>    > > > 但是大部分还是windows,所以只能用编程。
>>>    > > >
>>>    > > > -----Original Message-----
>>>    > > > From: python-chinese-bounces at lists.python.cn
>>>    python-chinese-bounces at lists.python.cn>
>>>    > > > [mailto:python-chinese-bounces at lists.python.cn
>>>    python-chinese-bounces at lists.python.cn> ] On Behalf Of
>>>    Zoom Quiet
>>>    > > > Sent: Friday, June 10, 2005 11:20 AM
>>>    > > > To: python-chinese at lists.python.cn
>>>    python-chinese at lists.python.cn>
>>>    > > > Subject: Re: [python-chinese] 如何通过http下载文件
>>>    > > >
>>>    > > > 对!!
>>>    > > > 这本身就是Pythonic 精神!
>>>    > > > 什么好用,就用什么!!
>>>    > > > Python 可以仅仅作为一种好用,听话的胶水是也乎!!
>>>    > > > 也可以直接调用你习惯的系统工具命令来作事儿的,
>>>    > > > Python 不过可以自然,快捷的组织事务逻辑是也乎!
>>>    > > >
>>>    > > > 在 05-6-10,huanghao at ufgov.com.cn
>>>    <http://ufgov.com.cn><huanghao at ufgov.com.cn
>>>    huanghao at ufgov.com.cn>> 写道:
>>>    > > > >
>>>    > > > > 我用 wget,一句话搞定,例如:
>>>    > > > >
>>>    > > > > wget -r -np -p -c http://chinese.joelonsoftware.com/
>>>    > > > >
>>>    > > > > Linux 下直接用,Windows 下装 cygwin
>>>    > > > >
>>>    > > > > 我对 Python 基本不懂,但能解决问题就好,不管用什么。
>>>    > > > > There's more than one way to do it.
>>>    > > > >
>>>    > > > > python-chinese-bounces at lists.python.cn
>>>    python-chinese-bounces at lists.python.cn> 写于 2005-06-10
>>>    > > > > 10:31:45:
>>>    > > > >
>>>    > > > >  > 使用urllib2(或urllib)的urlopen()打开一个http链接,将文
>>>    件保存起来
>>>    > > > 后,
>>>    > > > >  > 你想怎么分析怎么分析。
>>>    > > > >  >
>>>    > > > >  > 参考我的主页上的crawl即可。
>>>    http://pyrecord.freezope.org 也可以去
>>>    > > > google上找一找
>>>    > > > >  >
>>>    > > > >  > 在 05-6-10,lifr< lifr_sh at yeah.net
>>>    lifr_sh at yeah.net>> 写道:
>>>    > > > >  > >
>>>    > > > >  > > 我想通过http下载一个log文件在本地分析,可是我不清楚这
>>>    里面的过程是
>>>    > > > 什么样的。
>>>    > > > >  > > 一般情况是点击一个link,然后browser会弹出文家下载对话
>>>    框。
>>>    > > > >  > >
>>>    > > > >  > > 谁能介绍介绍,最好有一点实例code。谢谢。
>>>    > > > >
>>>    > > > > _______________________________________________
>>>    > > > > python-chinese list
>>>    > > > > python-chinese at lists.python.cn
>>>    python-chinese at lists.python.cn>
>>>    > > > > http://python.cn/mailman/listinfo/python-chinese
>>>    <http://python.cn/mailman/listinfo/python-chinese>
>>>    > > > >
>>>    > > > >
>>>    > > > >
>>>    > > >
>>>    > > > --
>>>    > > > [Time is unimportant, only life important!]
>>>    > > >
>>>    > > > _______________________________________________
>>>    > > > python-chinese list
>>>    > > > python-chinese at lists.python.cn
>>>    python-chinese at lists.python.cn>
>>>    > > > http://python.cn/mailman/listinfo/python-chinese
>>>    <http://python.cn/mailman/listinfo/python-chinese>
>>>    > > >
>>>    > > >
>>>    > > >
>>>    > >
>>>    > > --
>>>    > > I like python!
>>>    > > My Donews Blog: http://www.donews.net/limodou
>>>    > > New Google Maillist: http://groups-beta.google.com/group/python-cn
>>>    > >
>>>    > > _______________________________________________
>>>    > > python-chinese list
>>>    > > python-chinese at lists.python.cn
>>>    python-chinese at lists.python.cn>
>>>    > > http://python.cn/mailman/listinfo/python-chinese
>>>    > >
>>>    > >
>>>    > >
>>>    >
>>>    >
>>>    > --
>>>    > I'm the one, powered by nEO
>>>    >
>>>    > _______________________________________________
>>>    > python-chinese list
>>>    > python-chinese at lists.python.cn
>>>    python-chinese at lists.python.cn>
>>>    > http://python.cn/mailman/listinfo/python-chinese
>>>    >
>>>    >
>>>    >
>>>
>>>    _______________________________________________
>>>    python-chinese list
>>>    python-chinese at lists.python.cn python-chinese at lists.python.cn>
>>>    http://python.cn/mailman/listinfo/python-chinese
>>>
>>>
>>>
>>>------------------------------------------------------------------------
>>>
>>>_______________________________________________
>>>python-chinese list
>>>python-chinese at lists.python.cn
>>>http://python.cn/mailman/listinfo/python-chinese
>>>
>>>
>>>      
>>>
>>_______________________________________________
>>python-chinese list
>>python-chinese at lists.python.cn
>>http://python.cn/mailman/listinfo/python-chinese
>>
>>    
>>
>
>
>  
>
>------------------------------------------------------------------------
>
>_______________________________________________
>python-chinese list
>python-chinese at lists.python.cn
>http://python.cn/mailman/listinfo/python-chinese
>  
>

[导入自Mailman归档:http://www.zeuux.org/pipermail/zeuux-python]

如下红色区域有误,请重新填写。

    你的回复:

    请 登录 后回复。还没有在Zeuux哲思注册吗?现在 注册 !

    Zeuux © 2025

    京ICP备05028076号