百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

爬虫python链接mysql数据库使用to_sql写入数据老报错的问题

liuian 2024-12-27 15:15 18 浏览

网上有很多使用爬虫技术抓取数据并写入cvs的教学案例

抓下来也没大的问题,但是如果自己本地建立了mysql数据库,使用很多公开的教程,反倒实现不了功能,经常报这样那样的错误,比如常见的UserWarning: pandas only support SQLAlchemy connectable(engine/connection)错误!

经过不少时间的折腾终于找到了解决问题的办法,是因为to_sql办法网上大多数教程都是老版本的链接数据库的办法,新的版本的pandas只支持SQLAlchemy的办法链接

老的链接数据库的办法一般是这样的

import pandas as pd

import pymysql

# 创建数据库连接

conn = pymysql.connect(host='localhost', port=3306, user='root', password='password', db='database_name')

# 创建游标对象 cursor = conn.cursor()

# 创建一个DataFrame示例

data = {'Name': ['John', 'Mike', 'Bob'], 'Age': [25, 30, 35]}

df = pd.DataFrame(data)

# 将DataFrame插入MySQL表

# 如果该表不存在,可以使用CREATE TABLE语句来创建它

df.to_sql(name='table_name', con=conn, if_exists='replace', index=False)

# 关闭游标和连接

cursor.close()

conn.close()

这样的话直接报错!

那么就需要用新的办法链接

from sqlalchemy import create_engine

MYSQL_HOST = 'localhost'

MYSQL_PORT = '3306'

MYSQL_USER = 'root'

MYSQL_PASSWORD = '12345678'

MYSQL_DB = 'stocks'

### 使用pandas to_sql写入数据

engine = create_engine('mysql+pymysql://%s:%s@%s:%s/%s?charset=utf8'% (MYSQL_USER, MYSQL_PASSWORD, MYSQL_HOST, MYSQL_PORT, MYSQL_DB))

#engine = create_engine(conn)

df = pd.DataFrame(all_products,columns=keys)

#replce 清除并重写,append 叠加数据

df.to_sql('test_ifeng',engine, if_exists='replace', index=False)

#raise SystemExit

OK,这样我们就能看到mysql数据库存入了相关的数据

这是昨天爬虫入库的完整代码,有三种写入数据库的办法

import requests

from bs4 import BeautifulSoup

import csv

import pandas as pd

from sqlalchemy import create_engine

url = 'http://www.ifeng.com'

page = requests.get(url)

soup = BeautifulSoup(page.content, 'html.parser')

# 设置headers

headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36",

}

# 设置cookies

cookies = {}

cookies['mall'] = '1638237165.7.1148.523814'

cookies['JSESSIONID'] = '7D7F08E6CAC6989FDE82EBDEBBF9CB21'

# 发起请求

res = requests.get(url, cookies=cookies, headers=headers, timeout=5)

#res = requests.get(url)

#title = soup.title.text

all_products = []

#print(soup)

products = soup.select('p.index_news_list_p_5zOEF')

#raise SystemExit

for product in products:

title = product.select('a')[0].text

url = product.select('a')[0].attrs['href']

all_products.append({

"biaoti":title,

"link": url

})

#csv写入办法

keys = all_products[0].keys()

with open('ifeng新闻.csv', 'w', newline='', encoding='utf-8-sig') as output_file:

dict_writer = csv.DictWriter(output_file, keys)

dict_writer.writeheader()

dict_writer.writerows(all_products)

MYSQL_HOST = 'localhost'

MYSQL_PORT = '3306'

MYSQL_USER = 'root'

MYSQL_PASSWORD = '12345678'

MYSQL_DB = 'stocks'

### 使用pandas to_sql写入数据

engine = create_engine('mysql+pymysql://%s:%s@%s:%s/%s?charset=utf8'% (MYSQL_USER, MYSQL_PASSWORD, MYSQL_HOST, MYSQL_PORT, MYSQL_DB))

#engine = create_engine(conn)

df = pd.DataFrame(all_products,columns=keys)

#replce 清除并重写,append 叠加数据

df.to_sql('test_ifeng',engine, if_exists='replace', index=False)

#raise SystemExit

### 使用pandas to_csv写入数据

pd.DataFrame(all_products,columns=keys).to_csv('ifeng新闻1.csv', encoding='utf-8-sig')

相关推荐

【常识】如何优化Windows 7

优化Windows7可以让这个经典系统运行更流畅,特别是在老旧硬件上。以下是经过整理的实用优化方案,分为基础优化和进阶优化两部分:一、基础优化(适合所有用户)1.关闭不必要的视觉效果右键计算机...

系统优化!Windows 11/10 必做的十个优化配置

以下是为Windows10/11用户整理的10个必做优化配置,涵盖性能提升、隐私保护和系统精简等方面,操作安全且无需第三方工具:1.禁用不必要的开机启动项操作路径:`Ctrl+S...

最好用音频剪辑的软件,使用方法?

QVE音频剪辑是一款简单实用的软件,功能丰富,可编辑全格式音频。支持音频转换、合并、淡入淡出、变速、音量调节等,无时长限制,用户可自由剪辑。剪辑后文件音质无损,支持多格式转换,便于存储与跨设备播放,满...

Vue2 开发总踩坑?这 8 个实战技巧让代码秒变丝滑

前端开发的小伙伴们,在和Vue2打交道的日子里,是不是总被各种奇奇怪怪的问题搞得头大?数据不响应、组件传值混乱、页面加载慢……别慌!今天带来8个超实用的Vue2实战技巧,每一个都能直击痛...

Motion for Vue:为Vue量身定制的强大动画库

在前端开发中,动画效果是提升用户体验的重要手段。Vue生态系统中虽然有许多动画库,但真正能做到高性能、易用且功能丰富的并不多。今天,我们要介绍的是MotionforVue(motion-v),...

CSS view():JavaScript 滚动动画的终结

前言CSSview()方法可能会标志着JavaScript在制作滚动动画方面的衰落。如何用5行CSS代码取代50多行繁琐的JavaScript,彻底改变网页动画每次和UI/U...

「大数据」 hive入门

前言最近会介入数据中台项目,所以会推出一系列的跟大数据相关的组件博客与文档。Hive这个大数据组件自从Hadoop诞生之日起,便作为Hadoop生态体系(HDFS、MR/YARN、HIVE、HBASE...

青铜时代的终结:对奖牌架构的反思

作者|AdamBellemare译者|王强策划|Tina要点运维和分析用例无法可靠地访问相关、完整和可信赖的数据。需要一种新的数据处理方法。虽然多跳架构已经存在了几十年,并且可以对...

解析IBM SQL-on-Hadoop的优化思路

对于BigSQL的优化,您需要注意以下六个方面:1.平衡的物理设计在进行集群的物理设计需要考虑数据节点的配置要一致,避免某个数据节点性能短板而影响整体性能。而对于管理节点,它虽然不保存业务数据,但作...

交易型数据湖 - Apache Iceberg、Apache Hudi和Delta Lake的比较

图片由作者提供简介构建数据湖最重要的决定之一是选择数据的存储格式,因为它可以大大影响系统的性能、可用性和兼容性。通过仔细考虑数据存储的格式,我们可以增强数据湖的功能和性能。有几种不同的选择,每一种都有...

深入解析全新 AWS S3 Tables:重塑数据湖仓架构

在AWSre:Invent2024大会中,AWS发布了AmazonS3Tables:一项专为可扩展存储和管理结构化数据而设计的解决方案,基于ApacheIceberg开放表格...

Apache DataFusion查询引擎简介

简介DataFusion是一个查询引擎,其本身不具备存储数据的能力。正因为不依赖底层存储的格式,使其成为了一个灵活可扩展的查询引擎。它原生支持了查询CSV,Parquet,Avro,Json等存储格式...

大数据Hadoop之——Flink Table API 和 SQL(单机Kafka)

一、TableAPI和FlinkSQL是什么TableAPI和SQL集成在同一套API中。这套API的核心概念是Table,用作查询的输入和输出,这套API都是批处理和...

比较前 3 名Schema管理工具

关注留言点赞,带你了解最流行的软件开发知识与最新科技行业趋势。在本文中,读者将了解三种顶级schema管理工具,如AWSGlue、ConfluentSchemaRegistry和Memph...

大数据技术之Flume

第1章概述1.1Flume定义Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。Flume基于流式架构,灵活简单。1.2Flume的优点1.可以和...