filter函數:filter()函數可以對序列做過濾處理,就是說可以使用一個自定的函數過濾一個序列,把序列的每一項傳到自定義的過濾函數里處理,并返回結果做過濾。最終一次性返回過濾后的結果。filter()函數有兩個參數:第一個,自定函數名,必須的第二個,需要過濾的列,也是必須的DEMO需求,過濾大于5小于10的數:復制代碼代碼如下:#coding=utf8#定義大于5小于10的函數defguolvhanshu(num):ifnum>5andnum<10:
系統 2019-09-27 17:46:02 1947
學習python少不了寫爬蟲,不僅能以點帶面地學習、練習使用python,爬蟲本身也是有用且有趣的,大量重復性的下載、統計工作完全可以寫一個爬蟲程序完成。用python寫爬蟲需要python的基礎知識、涉及網絡的幾個模塊、正則表達式、文件操作等知識。昨天在網上學習了一下,寫了一個爬蟲自動下載「糗事百科」里面的圖片。源代碼如下:復制代碼代碼如下:#-*-coding:utf-8-*-#上面那句讓代碼里支持中文#------------------------
系統 2019-09-27 17:45:42 1947
這次要為我的python程序加上數據庫,主要是實現從mysql中查詢出數據并在頁面上顯示出來。首先是mysql的配置文件config.pyhost="127.0.0.1"user="root"password=""charset="utf8"database="service"port=3306然后是從數據庫中讀取數據的aService.pyimportMySQLdbimportsysimportconfigclassAService(object):de
系統 2019-09-27 17:45:28 1947
前言因為有一些網站需要每日檢查是否有問題,所以需要一個報警監控的機制,這個需要你指定你發送的郵箱和你接收的郵箱,就可以做到對網站自動監控了。這里用的是python3.5需要安裝的插件:1、smtplib:發郵件需要用到2、pycurl:訪問網站時會需要用到3、linecache:在讀取txt網站清單時需要用到具體思路:python程序從txt里面批量讀取到網站的信息,通過Curl.py模擬瀏覽器去訪問網站,并且把訪問的結果寫入到以自己的網站名稱-日期.tx
系統 2019-09-27 17:38:41 1947
1、操作目錄與文件名#!/usr/bin/envpython#-*-coding:utf-8-*-importos,reimportshutilimporttime用listdir搜索defsearch_OFD_old(my_pattern,diretory):try:names=os.listdir(diretory)exceptos.error:print"error"returnfornameinnames:fullname=os.path.norm
系統 2019-09-27 17:38:36 1947
微軟最近出了個必應bing繽紛桌面,使用下來還是不錯,可以每天更換Bing首頁的北京作為壁紙,但是該軟件有個不好的地方是,安裝后桌面上會有一個搜索框出現,很是煩人,而且不能關掉。于是出于技術考慮,想到了使用Python來實現這個功能。正如很多介紹Python書中那樣,Python是中膠水語言,用在哪里都是可行的。想要使用Python給桌面設置背景只需要下個模塊安裝即可:http://sourceforge.net/projects/pywin32/代碼非常
系統 2019-09-27 17:38:16 1947
系統管理員通常從svn/git中檢索代碼,部署站點后通常首先會生成該站點所有文件的MD5值,如果上線后網站頁面內容被篡改(如掛馬)等,可以比對之前生成MD5值快速查找去那些文件被更改,為了使系統管理員第一時間發現,可結合crontab或nagios等工具。程序測試如下:#pythoncheck_change.pyUsage:pythoncheck_change.pyupdate/home/wwwrootpythoncheck_change.pycheck/
系統 2019-09-27 17:38:00 1947
一般說來,你會把模板以文件的方式存儲在文件系統中,但是你也可以使用自定義的templateloaders從其他來源加載模板。Django有兩種方法加載模板django.template.loader.get_template(template_name):get_template根據給定的模板名稱返回一個已編譯的模板(一個Template對象)。如果模板不存在,就觸發TemplateDoesNotExist的異常。django.template.loade
系統 2019-09-27 17:37:43 1947
在學數據可視化,缺少點數據進行實操,就想著從餓了么上面爬點外賣店信息。主要是獲取數據,所以代碼比較簡陋,直接上代碼:importrequestsimportjsonimportcsvdefcrawler_ele(page=0):defget_page(page):url='https://h5.ele.me/restapi/shopping/v3/restaurants?latitude=xxxx&longitude=xxxx&offset={page}&
系統 2019-09-27 17:32:50 1947
1.從“站點+MYOP平臺+應用”三層架構--------》到“站點(shindig插件)+應用(符合opensocial規范)”兩層架構,速度帶來提升。2.做UCHOME的Opensocial插件,可參考partuza:http://code.google.com/p/partuza/PartuzaisanexampleOpenSocial-SocialNetworkSitethatusesApacheShindig.3.開發的應用略微修改、或不經修改應
系統 2019-08-29 23:46:29 1947