简体中文 繁體中文 English 日本語 Deutsch 한국 사람 بالعربية TÜRKÇE português คนไทย Français

站内搜索

搜索

活动公告

11-02 12:46
10-23 09:32
通知:本站资源由网友上传分享,如有违规等问题请到版务模块进行投诉,将及时处理!
10-23 09:31
10-23 09:28
通知:签到时间调整为每日4:00(东八区)
10-23 09:26

Python爬虫入门必学正则表达式让你高效抓取网页信息从基础语法到实战案例全面解析助你快速掌握数据提取技能

3万

主题

424

科技点

3万

积分

大区版主

木柜子打湿

积分
31917

三倍冰淇淋无人之境【一阶】财Doro小樱(小丑装)立华奏以外的星空【二阶】⑨的冰沙

发表于 2025-10-6 13:30:30 | 显示全部楼层 |阅读模式 [标记阅至此楼]

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
引言

在当今数据驱动的时代,网络爬虫已成为获取数据的重要手段。Python作为最受欢迎的爬虫编程语言,其强大的库支持和简洁的语法使得爬虫开发变得高效而简单。而在Python爬虫技术栈中,正则表达式(Regular Expression)是一项不可或缺的技能,它能帮助我们高效地从复杂的网页文本中提取所需数据。

正则表达式是一种强大的文本匹配工具,通过特定的模式匹配字符串,实现数据的快速查找、替换和提取。对于爬虫开发者来说,掌握正则表达式意味着能够更加灵活地处理各种网页结构,提取出有价值的信息。

本文将从正则表达式的基础语法讲起,逐步深入到Python中的实际应用,并通过丰富的实战案例,帮助读者全面掌握正则表达式在爬虫数据提取中的应用技巧。

正则表达式基础语法

什么是正则表达式

正则表达式是一种特殊的字符串模式,用于描述一类字符串的共同特征。它通过一系列特定字符和符号组成,用来检查一个字符串是否含有某种子字符串、将匹配的子字符串替换或者从某个字符串中取出符合某个条件的子字符串等。

基本元字符

元字符是正则表达式中具有特殊含义的字符,它们不表示自身,而是用于构建匹配模式。以下是最常用的元字符:

• .:匹配除换行符以外的任意单个字符
• ^:匹配字符串的开始位置
• $:匹配字符串的结束位置
• *:匹配前面的子表达式零次或多次
• +:匹配前面的子表达式一次或多次
• ?:匹配前面的子表达式零次或一次
• {n}:匹配前面的子表达式恰好n次
• {n,}:匹配前面的子表达式至少n次
• {n,m}:匹配前面的子表达式至少n次,至多m次

字符类

字符类用于匹配一组字符中的任意一个,使用方括号[]表示:

• [abc]:匹配a、b或c中的任意一个字符
• [^abc]:匹配除了a、b、c之外的任意字符
• [a-z]:匹配任意小写字母
• [A-Z]:匹配任意大写字母
• [0-9]:匹配任意数字
• [a-zA-Z0-9]:匹配任意字母或数字

特殊字符类

正则表达式提供了一些预定义的字符类,用于表示常见的字符集合:

• \d:匹配任意数字,相当于[0-9]
• \D:匹配任意非数字字符,相当于[^0-9]
• \w:匹配任意字母、数字或下划线,相当于[a-zA-Z0-9_]
• \W:匹配任意非字母、数字或下划线的字符,相当于[^a-zA-Z0-9_]
• \s:匹配任意空白字符(空格、制表符、换行符等)
• \S:匹配任意非空白字符

分组和捕获

使用圆括号()可以对正则表达式进行分组,并且可以捕获匹配的内容:

• (pattern):匹配pattern并捕获匹配的文本
• (?:pattern):匹配pattern但不捕获匹配的文本
• (?=pattern):正向预查,匹配pattern前面的位置
• (?!pattern):负向预查,匹配不在pattern前面的位置

选择符

使用竖线|表示选择符,用于匹配多个可能的模式之一:

• a|b:匹配a或b
• (abc)|(def):匹配abc或def

转义字符

如果要匹配正则表达式中的特殊字符本身,需要使用反斜杠\进行转义:

• \.:匹配点字符
• \\:匹配反斜杠字符
• \*:匹配星号字符

Python中的re模块

Python提供了re模块来支持正则表达式操作,使用前需要先导入该模块:
  1. import re
复制代码

主要函数和方法

re.match()尝试从字符串的起始位置匹配一个模式,如果匹配成功,返回一个匹配对象;否则返回None。
  1. import re
  2. pattern = r'Python'
  3. text = 'Python is a popular programming language'
  4. result = re.match(pattern, text)
  5. if result:
  6.     print('匹配成功:', result.group())
  7. else:
  8.     print('匹配失败')
复制代码

输出:
  1. 匹配成功: Python
复制代码

re.search()扫描整个字符串,返回第一个成功的匹配。如果匹配成功,返回一个匹配对象;否则返回None。
  1. import re
  2. pattern = r'programming'
  3. text = 'Python is a popular programming language'
  4. result = re.search(pattern, text)
  5. if result:
  6.     print('匹配成功:', result.group())
  7. else:
  8.     print('匹配失败')
复制代码

输出:
  1. 匹配成功: programming
复制代码

re.findall()查找字符串中所有匹配的子串,并返回一个列表。
  1. import re
  2. pattern = r'\d+'  # 匹配一个或多个数字
  3. text = 'There are 123 apples and 456 oranges'
  4. result = re.findall(pattern, text)
  5. print('所有匹配:', result)
复制代码

输出:
  1. 所有匹配: ['123', '456']
复制代码

re.finditer()与re.findall()类似,但返回的是一个迭代器,每个元素是一个匹配对象。
  1. import re
  2. pattern = r'\d+'  # 匹配一个或多个数字
  3. text = 'There are 123 apples and 456 oranges'
  4. result = re.finditer(pattern, text)
  5. for match in result:
  6.     print(f'找到数字: {match.group()}, 位置: {match.span()}')
复制代码

输出:
  1. 找到数字: 123, 位置: (10, 13)
  2. 找到数字: 456, 位置: (23, 26)
复制代码

re.sub()用于替换字符串中的匹配项。
  1. import re
  2. pattern = r'\d+'  # 匹配一个或多个数字
  3. text = 'There are 123 apples and 456 oranges'
  4. result = re.sub(pattern, 'number', text)
  5. print('替换结果:', result)
复制代码

输出:
  1. 替换结果: There are number apples and number oranges
复制代码

re.split()根据匹配的子串分割字符串。
  1. import re
  2. pattern = r'\s+'  # 匹配一个或多个空白字符
  3. text = 'Python  is   a    popular     programming language'
  4. result = re.split(pattern, text)
  5. print('分割结果:', result)
复制代码

输出:
  1. 分割结果: ['Python', 'is', 'a', 'popular', 'programming', 'language']
复制代码

编译正则表达式

如果需要多次使用同一个正则表达式,可以使用re.compile()将其编译成一个正则表达式对象,这样可以提高效率。
  1. import re
  2. # 编译正则表达式
  3. pattern = re.compile(r'\d+')
  4. # 使用编译后的正则表达式对象进行匹配
  5. text1 = 'There are 123 apples'
  6. text2 = 'There are 456 oranges'
  7. result1 = pattern.search(text1)
  8. result2 = pattern.search(text2)
  9. print(result1.group())
  10. print(result2.group())
复制代码

输出:
  1. 123
  2. 456
复制代码

匹配对象的方法

当正则表达式匹配成功时,会返回一个匹配对象,该对象有以下常用方法:

• group():返回整个匹配的字符串
• group(n):返回第n个分组匹配的字符串
• groups():返回所有分组匹配的字符串组成的元组
• start():返回匹配的起始位置
• end():返回匹配的结束位置
• span():返回一个包含匹配起始和结束位置的元组
  1. import re
  2. pattern = r'(\w+) (\d+)'  # 匹配单词和数字
  3. text = 'Python 3 is released in 2008'
  4. result = re.search(pattern, text)
  5. if result:
  6.     print('整个匹配:', result.group())
  7.     print('第一个分组:', result.group(1))
  8.     print('第二个分组:', result.group(2))
  9.     print('所有分组:', result.groups())
  10.     print('匹配位置:', result.span())
复制代码

输出:
  1. 整个匹配: Python 3
  2. 第一个分组: Python
  3. 第二个分组: 3
  4. 所有分组: ('Python', '3')
  5. 匹配位置: (0, 7)
复制代码

标志参数

正则表达式函数可以接受标志参数,用于修改匹配的行为。常用的标志有:

• re.I或re.IGNORECASE:忽略大小写
• re.M或re.MULTILINE:多行模式,影响^和$
• re.S或re.DOTALL:使.匹配包括换行符在内的所有字符
• re.X或re.VERBOSE:忽略正则表达式中的空白和注释,使其更易读
  1. import re
  2. pattern = r'python'
  3. text = 'Python is a popular programming language'
  4. # 不使用re.IGNORECASE
  5. result1 = re.search(pattern, text)
  6. print('不忽略大小写:', result1)
  7. # 使用re.IGNORECASE
  8. result2 = re.search(pattern, text, re.IGNORECASE)
  9. print('忽略大小写:', result2.group())
复制代码

输出:
  1. 不忽略大小写: None
  2. 忽略大小写: Python
复制代码

网页内容提取

从HTML中提取数据

在爬虫开发中,我们经常需要从HTML文档中提取数据。正则表达式可以很好地处理这类任务。下面是一个简单的例子:
  1. import re
  2. import requests
  3. # 获取网页内容
  4. url = 'https://example.com'
  5. response = requests.get(url)
  6. html = response.text
  7. # 提取所有链接
  8. link_pattern = r'<a[^>]+href="([^"]*)"[^>]*>(.*?)</a>'
  9. links = re.findall(link_pattern, html)
  10. for link, text in links:
  11.     print(f'链接: {link}, 文本: {text}')
复制代码

提取特定标签内容

如果我们需要提取特定HTML标签的内容,可以使用以下方法:
  1. import re
  2. html = '''
  3. <html>
  4. <head>
  5.     <title>示例页面</title>
  6. </head>
  7. <body>
  8.     <h1>欢迎来到示例页面</h1>
  9.     <div class="content">
  10.         <p>这是一个段落。</p>
  11.         <p>这是另一个段落。</p>
  12.     </div>
  13. </body>
  14. </html>
  15. '''
  16. # 提取标题
  17. title_pattern = r'<title>(.*?)</title>'
  18. title_match = re.search(title_pattern, html)
  19. if title_match:
  20.     print('页面标题:', title_match.group(1))
  21. # 提取所有段落
  22. paragraph_pattern = r'<p>(.*?)</p>'
  23. paragraphs = re.findall(paragraph_pattern, html)
  24. print('所有段落:')
  25. for i, p in enumerate(paragraphs, 1):
  26.     print(f'{i}. {p}')
复制代码

输出:
  1. 页面标题: 示例页面
  2. 所有段落:
  3. 1. 这是一个段落。
  4. 2. 这是另一个段落。
复制代码

处理属性值

有时我们需要提取HTML标签的属性值,例如class、id等:
  1. import re
  2. html = '''
  3. <div class="article" id="post-123">
  4.     <h2 class="title">文章标题</h2>
  5.     <p class="content">文章内容...</p>
  6. </div>
  7. '''
  8. # 提取div的class和id
  9. div_pattern = r'<div class="([^"]*)" id="([^"]*)">'
  10. div_match = re.search(div_pattern, html)
  11. if div_match:
  12.     print('div class:', div_match.group(1))
  13.     print('div id:', div_match.group(2))
  14. # 提取所有标签的class
  15. class_pattern = r'class="([^"]*)"'
  16. classes = re.findall(class_pattern, html)
  17. print('所有class:', classes)
复制代码

输出:
  1. div class: article
  2. div id: post-123
  3. 所有class: ['article', 'title', 'content']
复制代码

处理嵌套结构

处理嵌套的HTML结构是正则表达式的一个挑战,因为正则表达式本身不适合处理递归结构。但对于简单的嵌套,我们可以使用以下方法:
  1. import re
  2. html = '''
  3. <div class="outer">
  4.     <p>外层内容</p>
  5.     <div class="inner">
  6.         <p>内层内容</p>
  7.     </div>
  8.     <p>更多外层内容</p>
  9. </div>
  10. '''
  11. # 提取最外层div的内容
  12. outer_div_pattern = r'<div class="outer">(.*?)</div>'
  13. outer_div_match = re.search(outer_div_pattern, html, re.DOTALL)
  14. if outer_div_match:
  15.     print('外层div内容:', outer_div_match.group(1))
  16. # 提取内层div的内容
  17. inner_div_pattern = r'<div class="inner">(.*?)</div>'
  18. inner_div_match = re.search(inner_div_pattern, html, re.DOTALL)
  19. if inner_div_match:
  20.     print('内层div内容:', inner_div_match.group(1))
复制代码

输出:
  1. 外层div内容:
  2.     <p>外层内容</p>
  3.     <div class="inner">
  4.         <p>内层内容</p>
  5.     </div>
  6.     <p>更多外层内容</p>
  7. 内层div内容:
  8.         <p>内层内容</p>
复制代码

实战案例

案例1:提取网页中的所有图片链接
  1. import re
  2. import requests
  3. from urllib.parse import urljoin
  4. def extract_image_links(url):
  5.     # 获取网页内容
  6.     try:
  7.         response = requests.get(url)
  8.         html = response.text
  9.     except Exception as e:
  10.         print(f"获取网页失败: {e}")
  11.         return []
  12.    
  13.     # 提取所有图片链接
  14.     img_pattern = r'<img[^>]+src="([^"]*)"[^>]*>'
  15.     img_links = re.findall(img_pattern, html)
  16.    
  17.     # 将相对URL转换为绝对URL
  18.     absolute_img_links = [urljoin(url, img) for img in img_links]
  19.    
  20.     return absolute_img_links
  21. # 使用示例
  22. url = 'https://example.com'
  23. image_links = extract_image_links(url)
  24. print(f"找到 {len(image_links)} 张图片:")
  25. for i, link in enumerate(image_links, 1):
  26.     print(f"{i}. {link}")
复制代码

案例2:提取新闻文章的标题和内容
  1. import re
  2. import requests
  3. def extract_news_article(url):
  4.     # 获取网页内容
  5.     try:
  6.         response = requests.get(url)
  7.         html = response.text
  8.     except Exception as e:
  9.         print(f"获取网页失败: {e}")
  10.         return None, None
  11.    
  12.     # 提取标题
  13.     title_pattern = r'<h1[^>]*>(.*?)</h1>'
  14.     title_match = re.search(title_pattern, html)
  15.     title = title_match.group(1) if title_match else "未找到标题"
  16.    
  17.     # 提取文章内容(假设内容在div class="article-content"中)
  18.     content_pattern = r'<div class="article-content">(.*?)</div>'
  19.     content_match = re.search(content_pattern, html, re.DOTALL)
  20.     if content_match:
  21.         # 移除HTML标签,只保留文本
  22.         content = re.sub(r'<[^>]+>', '', content_match.group(1))
  23.         # 清理多余的空白字符
  24.         content = re.sub(r'\s+', ' ', content).strip()
  25.     else:
  26.         content = "未找到内容"
  27.    
  28.     return title, content
  29. # 使用示例
  30. url = 'https://example-news.com/article/123'
  31. title, content = extract_news_article(url)
  32. print(f"标题: {title}")
  33. print(f"内容: {content[:200]}...")  # 只打印前200个字符
复制代码

案例3:抓取商品信息
  1. import re
  2. import requests
  3. import json
  4. def scrape_product_info(url):
  5.     # 获取网页内容
  6.     try:
  7.         headers = {
  8.             'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'
  9.         }
  10.         response = requests.get(url, headers=headers)
  11.         html = response.text
  12.     except Exception as e:
  13.         print(f"获取网页失败: {e}")
  14.         return None
  15.    
  16.     # 提取商品名称
  17.     name_pattern = r'<h1[^>]*class="product-name"[^>]*>(.*?)</h1>'
  18.     name_match = re.search(name_pattern, html)
  19.     product_name = name_match.group(1) if name_match else "未知商品"
  20.    
  21.     # 提取商品价格
  22.     price_pattern = r'<span[^>]*class="price"[^>]*>(.*?)</span>'
  23.     price_match = re.search(price_pattern, html)
  24.     product_price = price_match.group(1) if price_match else "价格未知"
  25.    
  26.     # 提取商品评分
  27.     rating_pattern = r'<span[^>]*class="rating"[^>]*>(.*?)</span>'
  28.     rating_match = re.search(rating_pattern, html)
  29.     product_rating = rating_match.group(1) if rating_match else "无评分"
  30.    
  31.     # 提取商品描述
  32.     description_pattern = r'<div[^>]*class="product-description"[^>]*>(.*?)</div>'
  33.     description_match = re.search(description_pattern, html, re.DOTALL)
  34.     if description_match:
  35.         # 移除HTML标签
  36.         product_description = re.sub(r'<[^>]+>', '', description_match.group(1))
  37.         # 清理多余的空白字符
  38.         product_description = re.sub(r'\s+', ' ', product_description).strip()
  39.     else:
  40.         product_description = "无描述"
  41.    
  42.     # 构建商品信息字典
  43.     product_info = {
  44.         'name': product_name,
  45.         'price': product_price,
  46.         'rating': product_rating,
  47.         'description': product_description
  48.     }
  49.    
  50.     return product_info
  51. # 使用示例
  52. url = 'https://example-shop.com/product/123'
  53. product_info = scrape_product_info(url)
  54. if product_info:
  55.     print(json.dumps(product_info, indent=2, ensure_ascii=False))
复制代码

案例4:提取社交媒体数据
  1. import re
  2. import requests
  3. def extract_social_media_posts(url):
  4.     # 获取网页内容
  5.     try:
  6.         headers = {
  7.             'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'
  8.         }
  9.         response = requests.get(url, headers=headers)
  10.         html = response.text
  11.     except Exception as e:
  12.         print(f"获取网页失败: {e}")
  13.         return []
  14.    
  15.     # 提取所有帖子
  16.     posts = []
  17.    
  18.     # 假设每个帖子都在一个div class="post"中
  19.     post_pattern = r'<div[^>]*class="post"[^>]*>(.*?)</div>\s*(?=</div>|$)'
  20.     post_matches = re.findall(post_pattern, html, re.DOTALL)
  21.    
  22.     for post_html in post_matches:
  23.         # 提取作者
  24.         author_pattern = r'<a[^>]*class="author"[^>]*>(.*?)</a>'
  25.         author_match = re.search(author_pattern, post_html)
  26.         author = author_match.group(1) if author_match else "未知作者"
  27.         
  28.         # 提取时间
  29.         time_pattern = r'<time[^>]*>(.*?)</time>'
  30.         time_match = re.search(time_pattern, post_html)
  31.         post_time = time_match.group(1) if time_match else "未知时间"
  32.         
  33.         # 提取内容
  34.         content_pattern = r'<div[^>]*class="content"[^>]*>(.*?)</div>'
  35.         content_match = re.search(content_pattern, post_html, re.DOTALL)
  36.         if content_match:
  37.             # 移除HTML标签
  38.             content = re.sub(r'<[^>]+>', '', content_match.group(1))
  39.             # 清理多余的空白字符
  40.             content = re.sub(r'\s+', ' ', content).strip()
  41.         else:
  42.             content = "无内容"
  43.         
  44.         # 提取点赞数
  45.         likes_pattern = r'<span[^>]*class="likes"[^>]*>(\d+)</span>'
  46.         likes_match = re.search(likes_pattern, post_html)
  47.         likes = int(likes_match.group(1)) if likes_match else 0
  48.         
  49.         # 提取评论数
  50.         comments_pattern = r'<span[^>]*class="comments"[^>]*>(\d+)</span>'
  51.         comments_match = re.search(comments_pattern, post_html)
  52.         comments = int(comments_match.group(1)) if comments_match else 0
  53.         
  54.         # 构建帖子信息字典
  55.         post_info = {
  56.             'author': author,
  57.             'time': post_time,
  58.             'content': content,
  59.             'likes': likes,
  60.             'comments': comments
  61.         }
  62.         
  63.         posts.append(post_info)
  64.    
  65.     return posts
  66. # 使用示例
  67. url = 'https://example-social-media.com/user/posts'
  68. posts = extract_social_media_posts(url)
  69. print(f"找到 {len(posts)} 条帖子:")
  70. for i, post in enumerate(posts, 1):
  71.     print(f"\n帖子 {i}:")
  72.     print(f"作者: {post['author']}")
  73.     print(f"时间: {post['time']}")
  74.     print(f"内容: {post['content'][:100]}...")  # 只打印前100个字符
  75.     print(f"点赞: {post['likes']}")
  76.     print(f"评论: {post['comments']}")
复制代码

高级技巧

贪婪与非贪婪匹配

正则表达式默认是贪婪匹配的,即尽可能多地匹配字符。有时我们需要非贪婪匹配,即尽可能少地匹配字符。在量词后加上?可以使其变为非贪婪匹配。
  1. import re
  2. html = '''
  3. <div class="content">
  4.     <p>第一段</p>
  5.     <p>第二段</p>
  6. </div>
  7. <div class="footer">
  8.     <p>页脚</p>
  9. </div>
  10. '''
  11. # 贪婪匹配:匹配到最后一个</div>
  12. greedy_pattern = r'<div class="content">(.*?)</div>'
  13. greedy_match = re.search(greedy_pattern, html, re.DOTALL)
  14. print("贪婪匹配结果:")
  15. print(greedy_match.group(1) if greedy_match else "无匹配")
  16. # 非贪婪匹配:匹配到第一个</div>
  17. non_greedy_pattern = r'<div class="content">(.*?)</div>'
  18. non_greedy_match = re.search(non_greedy_pattern, html, re.DOTALL)
  19. print("\n非贪婪匹配结果:")
  20. print(non_greedy_match.group(1) if non_greedy_match else "无匹配")
复制代码

前瞻和后顾

前瞻(lookahead)和后顾(lookbehind)是正则表达式的高级特性,用于匹配某些位置前后的内容,但不包含在匹配结果中。
  1. import re
  2. text = 'apple123 banana456 cherry789'
  3. # 正向预查:匹配后面跟着数字的单词
  4. pattern1 = r'\w+(?=\d)'
  5. matches1 = re.findall(pattern1, text)
  6. print("正向预查结果:", matches1)
  7. # 负向预查:匹配后面不跟着数字的单词
  8. pattern2 = r'\w+(?!\d)'
  9. matches2 = re.findall(pattern2, text)
  10. print("负向预查结果:", matches2)
  11. # 正向后顾:匹配前面是数字的单词
  12. pattern3 = r'(?<=\d)\w+'
  13. matches3 = re.findall(pattern3, text)
  14. print("正向后顾结果:", matches3)
  15. # 负向后顾:匹配前面不是数字的单词
  16. pattern4 = r'(?<!\d)\w+'
  17. matches4 = re.findall(pattern4, text)
  18. print("负向后顾结果:", matches4)
复制代码

使用回调函数处理匹配

re.sub()可以接受一个函数作为替换参数,该函数接收一个匹配对象,并返回替换字符串。
  1. import re
  2. def process_price(match):
  3.     # 提取价格数值
  4.     price = float(match.group(1))
  5.     # 增加价格10%
  6.     new_price = price * 1.1
  7.     # 返回格式化后的价格
  8.     return f'${new_price:.2f}'
  9. text = '商品A: $10.50, 商品B: $20.75, 商品C: $5.25'
  10. # 将所有价格增加10%
  11. new_text = re.sub(r'\$(\d+\.\d+)', process_price, text)
  12. print('原始文本:', text)
  13. print('处理后文本:', new_text)
复制代码

使用命名组

命名组可以为分组命名,使正则表达式更易读,并且可以通过名称而不是索引来访问分组。
  1. import re
  2. text = '2023-05-15'
  3. # 使用命名组
  4. pattern = r'(?P<year>\d{4})-(?P<month>\d{2})-(?P<day>\d{2})'
  5. match = re.search(pattern, text)
  6. if match:
  7.     print('年:', match.group('year'))
  8.     print('月:', match.group('month'))
  9.     print('日:', match.group('day'))
  10.    
  11.     # 获取所有命名组
  12.     print('所有命名组:', match.groupdict())
复制代码

编译正则表达式时添加注释

使用re.VERBOSE标志可以在正则表达式中添加注释,使其更易读。
  1. import re
  2. # 编译一个带有注释的正则表达式
  3. email_pattern = re.compile(r"""
  4.     # 匹配用户名部分
  5.     ([a-zA-Z0-9._%+-]+)
  6.     # 匹配@符号
  7.     @
  8.     # 匹配域名部分
  9.     ([a-zA-Z0-9.-]+)
  10.     # 匹配点号
  11.     \.
  12.     # 匹配顶级域名
  13.     ([a-zA-Z]{2,})
  14. """, re.VERBOSE)
  15. text = '联系邮箱: example@example.com'
  16. match = email_pattern.search(text)
  17. if match:
  18.     print('完整邮箱:', match.group(0))
  19.     print('用户名:', match.group(1))
  20.     print('域名:', match.group(2))
  21.     print('顶级域名:', match.group(3))
复制代码

最佳实践和性能优化

预编译正则表达式

如果同一个正则表达式需要多次使用,应该预编译它以提高性能。
  1. import re
  2. # 不好的做法:每次使用都重新编译
  3. def extract_emails_bad(text):
  4.     emails = re.findall(r'[a-zA-Z0-9._%+-]+@[a-zA-Z0-9.-]+\.[a-zA-Z]{2,}', text)
  5.     return emails
  6. # 好的做法:预编译正则表达式
  7. EMAIL_PATTERN = re.compile(r'[a-zA-Z0-9._%+-]+@[a-zA-Z0-9.-]+\.[a-zA-Z]{2,}')
  8. def extract_emails_good(text):
  9.     emails = EMAIL_PATTERN.findall(text)
  10.     return emails
复制代码

避免回溯问题

复杂的正则表达式可能导致大量的回溯,从而影响性能。以下是一些避免回溯问题的技巧:

1. 使用更具体的字符类,而不是.
2. 避免嵌套量词,如(a+)+
3. 使用原子组或占有量词(Python不支持,但可以通过其他方式模拟)
  1. import re
  2. # 可能导致回溯问题的正则表达式
  3. bad_pattern = r'^(a+)+$'
  4. # 优化后的正则表达式
  5. good_pattern = r'^a+$'
  6. text = 'a' * 100  # 100个a
  7. # 测试性能
  8. import timeit
  9. bad_time = timeit.timeit(lambda: re.match(bad_pattern, text), number=1000)
  10. good_time = timeit.timeit(lambda: re.match(good_pattern, text), number=1000)
  11. print(f'可能导致回溯的模式的执行时间: {bad_time:.6f}秒')
  12. print(f'优化后的模式的执行时间: {good_time:.6f}秒')
复制代码

使用合适的函数

根据需求选择合适的函数:

• 如果只需要检查是否存在匹配,使用re.search()而不是re.findall()
• 如果需要获取所有匹配,使用re.findall()或re.finditer()
• 如果只需要第一个匹配,使用re.search()而不是re.findall()
  1. import re
  2. text = 'Email: user@example.com, Phone: 123-456-7890'
  3. # 只需要检查是否存在邮箱
  4. if re.search(r'[a-zA-Z0-9._%+-]+@[a-zA-Z0-9.-]+\.[a-zA-Z]{2,}', text):
  5.     print('文本中包含邮箱')
  6. # 获取所有数字序列
  7. numbers = re.findall(r'\d+', text)
  8. print('所有数字序列:', numbers)
复制代码

避免捕获组

如果不需要捕获匹配的子串,使用非捕获组(?:...)可以提高性能。
  1. import re
  2. text = 'abc123def456ghi'
  3. # 使用捕获组
  4. pattern_with_capture = r'([a-z]+)(\d+)'
  5. matches_with_capture = re.findall(pattern_with_capture, text)
  6. print('使用捕获组的结果:', matches_with_capture)
  7. # 使用非捕获组
  8. pattern_without_capture = r'(?:[a-z]+)(\d+)'
  9. matches_without_capture = re.findall(pattern_without_capture, text)
  10. print('使用非捕获组的结果:', matches_without_capture)
复制代码

使用字符串方法处理简单模式

对于简单的模式,使用字符串方法可能比正则表达式更高效。
  1. import re
  2. import timeit
  3. text = 'This is a sample text with some words.'
  4. # 使用正则表达式检查是否包含单词
  5. def contains_word_regex(word):
  6.     return bool(re.search(r'\b' + re.escape(word) + r'\b', text))
  7. # 使用字符串方法检查是否包含单词
  8. def contains_word_str(word):
  9.     return word in text.split()
  10. # 测试性能
  11. word = 'sample'
  12. regex_time = timeit.timeit(lambda: contains_word_regex(word), number=10000)
  13. str_time = timeit.timeit(lambda: contains_word_str(word), number=10000)
  14. print(f'正则表达式方法的执行时间: {regex_time:.6f}秒')
  15. print(f'字符串方法的执行时间: {str_time:.6f}秒')
复制代码

常见问题和解决方案

问题1:匹配多行文本

默认情况下,.不匹配换行符。要匹配多行文本,可以使用re.DOTALL标志。
  1. import re
  2. html = '''
  3. <div class="content">
  4.     <p>第一段</p>
  5.     <p>第二段</p>
  6. </div>
  7. '''
  8. # 不使用re.DOTALL
  9. pattern1 = r'<div class="content">(.*?)</div>'
  10. match1 = re.search(pattern1, html)
  11. print('不使用re.DOTALL:', match1.group(1) if match1 else '无匹配')
  12. # 使用re.DOTALL
  13. pattern2 = r'<div class="content">(.*?)</div>'
  14. match2 = re.search(pattern2, html, re.DOTALL)
  15. print('使用re.DOTALL:', match2.group(1) if match2 else '无匹配')
复制代码

问题2:处理Unicode字符

要正确处理Unicode字符,可以使用re.UNICODE标志(在Python 3中是默认的)。
  1. import re
  2. text = 'English: hello, 中文: 你好, 日本語: こんにちは'
  3. # 匹配所有单词(包括非英文字符)
  4. words = re.findall(r'\w+', text, re.UNICODE)
  5. print('所有单词:', words)
  6. # 匹配所有中文字符
  7. chinese_chars = re.findall(r'[\u4e00-\u9fff]+', text)
  8. print('中文字符:', chinese_chars)
复制代码

问题3:提取嵌套标签内容

正则表达式不适合处理嵌套结构,但对于简单的嵌套,可以使用以下技巧:
  1. import re
  2. html = '''
  3. <div id="outer">
  4.     <p>外层内容</p>
  5.     <div id="inner">
  6.         <p>内层内容</p>
  7.     </div>
  8.     <p>更多外层内容</p>
  9. </div>
  10. '''
  11. # 提取最外层div的内容(不包含内层div)
  12. outer_pattern = r'<div id="outer">(.*?)(?=<div id="inner">|$)'
  13. outer_match = re.search(outer_pattern, html, re.DOTALL)
  14. print('外层div内容(不包含内层div):', outer_match.group(1) if outer_match else '无匹配')
  15. # 提取内层div的内容
  16. inner_pattern = r'<div id="inner">(.*?)</div>'
  17. inner_match = re.search(inner_pattern, html, re.DOTALL)
  18. print('内层div内容:', inner_match.group(1) if inner_match else '无匹配')
复制代码

问题4:处理HTML实体

HTML中的特殊字符可能会以实体形式出现,如&lt;表示<,&gt;表示>等。提取文本时可能需要将这些实体转换回原始字符。
  1. import re
  2. import html
  3. text = 'HTML实体: &lt;div&gt; &amp; &quot; &apos;'
  4. # 使用html模块解码HTML实体
  5. decoded_text = html.unescape(text)
  6. print('解码后的文本:', decoded_text)
  7. # 使用正则表达式替换特定HTML实体
  8. def replace_html_entities(text):
  9.     # 替换常见的HTML实体
  10.     text = re.sub(r'&lt;', '<', text)
  11.     text = re.sub(r'&gt;', '>', text)
  12.     text = re.sub(r'&amp;', '&', text)
  13.     text = re.sub(r'&quot;', '"', text)
  14.     text = re.sub(r'&apos;', "'", text)
  15.     return text
  16. print('正则替换后的文本:', replace_html_entities(text))
复制代码

问题5:处理动态生成的ID或类名

有时网页中的ID或类名是动态生成的,包含随机字符串。可以使用正则表达式匹配这些动态部分。
  1. import re
  2. html = '''
  3. <div id="content-abc123">
  4.     <p>内容</p>
  5. </div>
  6. <div class="item-def456 active">
  7.     <p>项目</p>
  8. </div>
  9. '''
  10. # 匹配动态ID(id="content-"后跟任意字符)
  11. id_pattern = r'id="content-[^"]*"'
  12. id_match = re.search(id_pattern, html)
  13. print('匹配到的动态ID:', id_match.group(0) if id_match else '无匹配')
  14. # 匹配动态类名(class="item-"后跟任意字符,可能还有其他类)
  15. class_pattern = r'class="item-[^"]*\s*active"'
  16. class_match = re.search(class_pattern, html)
  17. print('匹配到的动态类名:', class_match.group(0) if class_match else '无匹配')
复制代码

总结

正则表达式是Python爬虫开发中不可或缺的工具,它能够帮助我们高效地从网页文本中提取所需数据。本文从正则表达式的基础语法开始,逐步深入到Python中的实际应用,并通过丰富的实战案例,展示了正则表达式在爬虫数据提取中的强大功能。

我们学习了正则表达式的基本元字符、字符类、分组和捕获等概念,掌握了Python中re模块的主要函数和方法,了解了如何从HTML中提取数据,处理各种网页结构。通过实战案例,我们看到了正则表达式在实际爬虫项目中的应用,包括提取图片链接、新闻文章、商品信息和社交媒体数据等。

此外,我们还探讨了一些高级技巧,如贪婪与非贪婪匹配、前瞻和后顾、使用回调函数处理匹配、使用命名组等,以及一些最佳实践和性能优化建议,帮助读者写出更高效、更健壮的正则表达式。

虽然正则表达式非常强大,但它并不是万能的。对于复杂的HTML解析,使用专门的解析库如BeautifulSoup或lxml可能更加合适。然而,对于许多简单的数据提取任务,正则表达式仍然是最快捷、最灵活的解决方案。

通过不断练习和应用,相信读者能够熟练掌握正则表达式这一强大的工具,在Python爬虫开发中游刃有余,高效地提取和处理网络数据。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

频道订阅

频道订阅

加入社群

加入社群

联系我们|TG频道|RSS

Powered by Pixtech

© 2025 Pixtech Team.