博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
关于统计数据
阅读量:6120 次
发布时间:2019-06-21

本文共 1102 字,大约阅读时间需要 3 分钟。

一、关于Python操作mysql:

1.导入pyutil模块,这模块有很多常用的功能

from pyutil.program.db import DAL
def get_mysql_dal():       mysql_db_conf = Conf('配置文件的位置')       screenlock_dal = DAL(host=mysql_db_conf.host, port=mysql_db_conf.port, user=mysql_db_conf.user, passwd = "22",name=mysql_db_conf.name)       return mysql_dal

  2.之后用execute函数执行sql语句就OK了

          mysql_dal.excute(sql).fetchone()

  3.fetchone()只取出一个结果,fetchall()把结果全取出来。fetchone的结果就是一个值,可以判断是否为None。fetchall的结果会出来一个列表,列表元素是元组,元组元素取决于你的sql语句:

[(12, 3715231920, 'stay_page', 'click_headline'), (12, 3715231920, 'stats', ''), (14, 2679244993, 'detail', 'page_close_key')]

fetchall的结果不应该和None比较,因为都不会等于空,想要看sql有没查出东西,看 len(excute返回值)==0。

 4.这种操作好像不用涉及到关闭数据库的问题

二、关于hive

1.查询方式和sql基本类似,但是记住要先查看hive的分区,查询语句好像一定要加上所在的分区,比如按时间分区的,data=2017-06-06号一个分区,date=2017-06-07这样分。where语句要有所限定where date=20170606这样,要不然查不出来

2.show partitions 查看分区,hive写完sql语句后使用map-reduce执行,挺慢的,有一系列的语句可以多优化。

3.python操作hive数据库:百度吧

三、关于HDFS

1.常用的HDFS命令–一堆,自己找。

查看文件内容  hadoop fs -text /data/.../...../20170531/*|less

关于如何用python操作Hdfs文件,在用python写spark那边再说吧。

转载于:https://www.cnblogs.com/qingjiaowoyc/p/6986245.html

你可能感兴趣的文章
软件概要设计做什么,怎么做
查看>>
dwr
查看>>
java的特殊符号
查看>>
word2010中去掉红色波浪线的方法
查看>>
fabric上下文管理器(context mangers)
查看>>
JQuery-EasyUI Datagrid数据行鼠标悬停/离开事件(onMouseOver/onMouseOut)
查看>>
并发和并行的区别
查看>>
php小知识
查看>>
Windows下安装、运行Lua
查看>>
Nginx 反向代理、负载均衡、页面缓存、URL重写及读写分离详解(二)
查看>>
初识中间件之消息队列
查看>>
MyBatis学习总结(三)——优化MyBatis配置文件中的配置
查看>>
Spring常用注解
查看>>
我的友情链接
查看>>
PCS子层有什么用?
查看>>
查看端口,关闭端口
查看>>
代码托管平台简介
查看>>
linux:yum和apt-get的区别
查看>>
Sentinel 1.5.0 正式发布,引入 Reactive 支持
查看>>
如何对网站进行归档
查看>>