五月综合激情婷婷六月,日韩欧美国产一区不卡,他扒开我内裤强吻我下面视频 ,无套内射无矿码免费看黄,天天躁,日日躁,狠狠躁

新聞動(dòng)態(tài)

Python趣味爬蟲之爬取愛奇藝熱門電影

發(fā)布日期:2022-03-18 08:57 | 文章來源:站長之家

一、首先我們要找到目標(biāo)

找到目標(biāo)先分析一下網(wǎng)頁很幸運(yùn)這個(gè)只有一個(gè)網(wǎng)頁,不需要翻頁。

二、F12查看網(wǎng)頁源代碼

找到目標(biāo),分析如何獲取需要的數(shù)據(jù)。找到href與電影名稱

三、進(jìn)行代碼實(shí)現(xiàn),獲取想要資源。

'''
操作步驟
1,獲取到url內(nèi)容
 
2,css選擇其選擇內(nèi)容
 
3,保存自己需要數(shù)據(jù)
 
'''
#導(dǎo)入爬蟲需要的包
import requests
from bs4 import BeautifulSoup
#requests與BeautifulSoup用來解析網(wǎng)頁的
import time
#設(shè)置訪問網(wǎng)頁時(shí)間,防止自己IP訪問多了被限制拒絕訪問
import re
class Position():
 
 def __init__(self,position_name,position_require,):#構(gòu)建對(duì)象屬性
  self.position_name=position_name
  self.position_require=position_require
 
 def __str__(self):
  return '%s%s/n'%(self.position_name,self.position_require)#重載方法將輸入變量改成字符串形式
 
class Aiqiyi():
 def iqiyi(self,url):
  head= {
'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.67 Safari/537.36 Edg/87.0.664.47"
  }  #模擬的服務(wù)器頭
  html = requests.get(url,headers=head)
  #headers=hard 讓腳本以瀏覽器的方式去訪問,有一些網(wǎng)址禁止以python的反爬機(jī)制,這就是其中一個(gè)
  soup = BeautifulSoup(html.content, 'lxml', from_encoding='utf-8')  # BeautifulSoup打看網(wǎng)頁
  soupl = soup.select(".qy-list-wrap")  # 查找標(biāo)簽,用css選擇器,選擇自己需要數(shù)據(jù) 進(jìn)行選擇頁面第一次內(nèi)容(標(biāo)簽要找到唯一的,找id好,如果沒有考慮其他標(biāo)簽如class)
  results = []  # 創(chuàng)建一個(gè)列表用來存儲(chǔ)數(shù)據(jù)
  for e in soupl:
biao = e.select('.qy-mod-li')  # 進(jìn)行二次篩選
for h in biao:
 p=Position(h.select_one('.qy-mod-link-wrap').get_text(strip=True),
  h.select_one('.title-wrap').get_text(strip=True))#調(diào)用類轉(zhuǎn)換(繼續(xù)三次篩選選擇自己需要內(nèi)容)
 results.append(p)
  return results  # 返回內(nèi)容
 
 def address(self,url):
  #保存網(wǎng)址
  head = {
'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.67 Safari/537.36 Edg/87.0.664.47"
  }  # 模擬的服務(wù)器頭
  html = requests.get(url, headers=head)
  soup = BeautifulSoup(html.content, 'lxml', from_encoding='utf-8')  # BeautifulSoup打看網(wǎng)頁
  alist = soup.find('div', class_='qy-list-wrap').find_all("a")  # 查找div塊模塊下的  a標(biāo)簽
  ls=[]
  for i in alist:
ls.append(i.get('href'))
 
  return ls
 
 
 
if __name__ == '__main__':
 time.sleep(2)
 #設(shè)置2秒訪問一次
 a=Aiqiyi()
 url = "https://list.iqiyi.com/www/1/-------------11-1-1-iqiyi--.html"
 with open(file='e:/練習(xí).txt ', mode='a+') as f:  # e:/練習(xí).txt 為我電腦新建的文件,a+為給內(nèi)容進(jìn)行添加,但不進(jìn)行覆蓋原內(nèi)容。
for item in a.iqiyi(url):
 line = f'{item.position_name}\t{item.position_require}\n'
 f.write(line)  # 采用方法
 print("下載完成")
 with open(file='e:/地址.txt ', mode='a+') as f:  # e:/練習(xí).txt 為我電腦新建的文件,a+為給內(nèi)容進(jìn)行添加,但不進(jìn)行覆蓋原內(nèi)容。
  for item in a.address(url):
line=f'https{item}\n'
f.write(line)  # 采用方法
print("下載完成")

四、查看現(xiàn)象


到此這篇關(guān)于Python趣味爬蟲之爬取愛奇藝熱門電影的文章就介紹到這了,更多相關(guān)Python爬取電影內(nèi)容請(qǐng)搜索本站以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持本站!

香港服務(wù)器租用

版權(quán)聲明:本站文章來源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請(qǐng)保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非maisonbaluchon.cn所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請(qǐng)聯(lián)系alex-e#qq.com處理。

相關(guān)文章

實(shí)時(shí)開通

自選配置、實(shí)時(shí)開通

免備案

全球線路精選!

全天候客戶服務(wù)

7x24全年不間斷在線

專屬顧問服務(wù)

1對(duì)1客戶咨詢顧問

在線
客服

在線客服:7*24小時(shí)在線

客服
熱線

400-630-3752
7*24小時(shí)客服服務(wù)熱線

關(guān)注
微信

關(guān)注官方微信
頂部