1. 文件操作:读取和写入文件
# 读取文件内容并显示
with open('example.txt', 'r', encoding='utf-8') as file:
content = file.read()
print(content) # 输出文件内容
# 写入新的内容到文件
with open('output.txt', 'w', encoding='utf-8') as file:
file.write("Hello, World!\nThis is a new line.")
解释
这个脚本首先读取一个名为 example.txt 的文件,然后将文件中的内容打印出来。接着,它创建或覆盖一个名为 output.txt 的文件,并写入一些文本。这在处理文档、日志或数据文件时非常有用。
想象一下,你有一个记录日常开销的文本文件,使用这个脚本可以方便地读取和更新你的开销记录。
2. 数据处理:CSV文件的读取和分析
import pandas as pd
# 读取CSV文件
data = pd.read_csv('data.csv')
# 显示前五行
print(data.head())
# 计算某一列的平均值
average = data['amount'].mean()
print(f'Average Amount: {average}')
解释
通过使用Pandas库,这个脚本读取一个名为 data.csv 的CSV文件,并显示前五行数据。它还计算并打印某一列(假设为 amount)的平均值。这在处理电子表格、财务数据等方面非常实用。
如果你有一个包含每月消费的CSV文件,这个脚本可以帮助你快速找出你的平均消费,帮助你制定更好的预算计划。
3. 网络请求:获取网页内容
import requests
# 获取网页内容
url = 'https://www.example.com'
response = requests.get(url)
# 检查请求是否成功
if response.status_code == 200:
print(response.text) # 打印网页内容
else:
print(f'Failed to retrieve page. Status code: {response.status_code}')
解释
这个脚本使用Requests库获取指定URL的网页内容。如果请求成功(状态码为200),则打印网页内容,否则打印错误信息。这可以用于抓取网页数据、监视网站状态等。
假设你想定期检查某个新闻网站的最新消息,通过这个脚本,你可以自动获取页面内容,并分析其中的信息。
4. 简单的Web服务器
from http.server import SimpleHTTPRequestHandler, HTTPServer
class MyHandler(SimpleHTTPRequestHandler):
def do_GET(self):
self.send_response(200)
self.send_header('Content-type', 'text/html')
self.end_headers()
self.wfile.write(b"Hello, World!")
server = HTTPServer(('localhost', 8080), MyHandler)
print("Starting server on port 8080...")
server.serve_forever()
解释
这段代码创建了一个简单的HTTP服务器,当你访问根路径时会返回“Hello, World!”的HTML响应。适合用于测试和学习Web开发基础。
如果你需要一个临时网站来展示你的个人作品集,这个脚本可以很方便地搭建一个本地服务器。
5. 图片处理:调整图片大小
from PIL import Image
# 打开图片
img = Image.open('image.jpg')
# 调整图片大小
img = img.resize((800, 600))
# 保存新图片
img.save('image_resized.jpg')
解释
这个脚本使用Pillow库打开一张图片,将其调整为800x600像素,并保存为新文件。这在处理大量图片时非常实用,比如调整网页上的图片大小。
比如你想把旅行时拍的照片调整为适合社交平台分享的尺寸,这段代码可以帮助你批量处理这些图片。
6. 爬虫:从网页提取特定信息
import requests
from bs4 import BeautifulSoup
# 请求网页
url = 'https://news.ycombinator.com/'
response = requests.get(url)
# 解析网页
soup = BeautifulSoup(response.text, 'html.parser')
titles = soup.find_all('a', class_='storylink')
# 输出文章标题
for title in titles:
print(title.get_text())
解释
这个脚本抓取了Hacker News网站的首页,并使用BeautifulSoup库提取所有文章的标题。适合初学者了解如何进行网页爬虫。
如果你想跟踪某个领域的最新动态,这个脚本可以自动抓取相关网站上的标题,方便你快速了解行业趋势。
7. 自动发送邮件
import smtplib
from email.mime.text import MIMEText
# 邮件内容
msg = MIMEText('Hello! This is an automated message.')
msg['Subject'] = 'Automated Email'
msg['From'] = 'youremail@example.com'
msg['To'] = 'recipient@example.com'
# 发送邮件
with smtplib.SMTP('smtp.example.com', 587) as server:
server.starttls()
server.login('youremail@example.com', 'yourpassword')
server.send_message(msg)
解释
这个脚本使用smtplib库发送一封简单的电子邮件。根据SMTP服务器信息配置参数后,可以实现自动邮件发送。
生活实例
想象一下,每天发送工作进展更新或者生日祝福,这个脚本能够简化这个过程。
8. 数据可视化:绘制简单图表
import matplotlib.pyplot as plt
# 数据
categories = ['A', 'B', 'C', 'D']
values = [10, 20, 15, 25]
# 绘制条形图
plt.bar(categories, values)
plt.xlabel('Categories')
plt.ylabel('Values')
plt.title('Simple Bar Chart')
plt.show()
解释
这个脚本使用Matplotlib库绘制了一幅简单的条形图,展示不同类别及其对应的值。这在数据分析和报告中非常有用。
如果你正在准备一个演示报告,使用这个脚本可以轻松生成图表,使数据更加直观易懂。
9. 定时任务:每日提醒
import schedule
import time
def job():
print("Don't forget to take a break and stretch!")
# 每小时执行一次
schedule.every().hour.do(job)
while True:
schedule.run_pending()
time.sleep(1)
解释
这个脚本使用schedule库设置了一个每小时执行一次的任务,提醒用户休息。适合持续运行的程序。
如果你在长时间坐着工作,这个脚本可以帮助你定时提醒自己起身活动。
10. 随机生成密码
import random
import string
def generate_password(length=12):
characters = string.ascii_letters + string.digits + string.punctuation
password = ''.join(random.choice(characters) for _ in range(length))
return password
# 生成一个随机密码
print(generate_password(16))
解释
这个脚本生成一个随机密码,默认长度为12个字符。它结合了字母、数字和符号,增强密码的安全性。
在注册新账户时,使用此脚本可以帮助生成一个强密码,保护你的个人信息安全。
这些脚本涵盖了文件操作、数据处理、网络请求、图像处理等多个领域,非常适合新手练习和应用。希望这份文章能为你提供灵感和帮助!