社区
Spark
帖子详情
在python中应用pyspark出现这个提示,这个怎么修改啊?
中枢人
2023-03-14 09:23:43
...全文
316
2
打赏
收藏
在python中应用pyspark出现这个提示,这个怎么修改啊?
[图片]
复制链接
扫一扫
分享
转发到动态
举报
AI
作业
写回复
配置赞助广告
用AI写文章
2 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
weixin_47196307
2023-05-06
打赏
举报
回复
调整日志等级
shiter
熟练
2023-05-01
打赏
举报
回复
警告可以不用管
x86架构
python
379.zip(支持spark,
pyspark
,sparkR等)
解压直接用,编译好的x86架构
python
3.7.9(支持spark,
pyspark
,sparkR等)
Xgboost Spark Jar包及
Python
接口文件
提供在Spark上跑Xgboost模型需要的 Jar包及
Python
接口文件
Pyspark
综合案例(
pyspark
安装和java运行环境配置)
Pyspark
综合案例(
pyspark
安装和java运行环境配置)
pycharm编写spark程序,导入
pyspark
包的3
中
实现方法
主要介绍了pycharm编写spark程序,导入
pyspark
包的3
中
实现方法,文
中
通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
pyspark
-testing:使用
PySpark
进行单元和集成测试可能很困难,让我们更轻松地进行
使用
PySpark
进行测试很痛苦,因此让我们通过示例使其变得更简单。 该项目是开发和测试
PySpark
应用
程序/驱动程序脚本时应遵循的一些良好做法的示例。
提示
1:使用
Python
包 Spark要求您的驱动程序
中
的所有代码都必须位于启动
python
进程的执行程序的
PYTHON
PATH上。 这意味着要么需要为集群
中
的每个节点正确配置所有必需的依赖项,要么将您的驱动程序所需的代码通过spark-submit --py-files /path/to/myegg.egg或sc.addPyFile()发送给执行者sc.addPyFile() 。 对于不经常更改的需求,可以在供应/引导过程
中
在所有节点上进行全局pip install ...很好,但是对于经常更改的专有代码,则需要更好的解决方案。 为此,您有两个选择之一: 手动创建一个常规的zip文件,然后通过--py-files或addPyF
Spark
1,269
社区成员
1,169
社区内容
发帖
与我相关
我的任务
Spark
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
复制链接
扫一扫
分享
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章