安装Oozie时找不到oozie-sharelib-distcp:jar [问题点数:68分]

Bbs1
本版专家分:0
结帖率 76.97%
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Blank
签到新秀 累计签到获取,不积跬步,无以至千里,继续坚持!
Bbs1
本版专家分:0
Oozie原理篇
1 基本概念 (1)目前计算框架和作业类型繁多:MapReduce Java、Streaming、HQL、Pig等。 (2)如何对这些框架和作业进行统一管理和调度:       ① 不同作业之间存在依赖关系(DAG:有向无环图,指定了作业之间的调度关系);       ② 周期性...
任务调度框架Oozie学习笔记
目录 1.  工作流调度框架<em>Oozie</em>功能初步认识 2.  几种调度框架讲解 3.  <em>Oozie</em> 功能架构及三大Server讲解 4.  <em>Oozie</em><em>安装</em>部署 5.   <em>Oozie</em>案例运行MapReduce Wordflow讲解 6.  如何定义OoozieWorkflow讲解 7.  <em>Oozie</em> Workflow中MapReduce Action定义讲解 8.  编写<em>Oozie</em>...
oozie配置任务,任务可以执行成功,但是workflow显示的是kill
oozie配置任务,任务可以执行成功,但是workflow显示的是kill,看了一下日志,报错如下: ![图片说明](https://img-ask.csdn.net/upload/201908/08/1565255997_632507.png)![图片说明](https://img-ask.csdn.net/upload/201908/08/1565256009_163062.png) 我看网上说换mysql驱动包,我已经尝试了,发现不是这个问题导致的。 我用的是hue,然后hdp的版本是2.6。
大数据调度工具oozie详细介绍
背景: 之前项目中的sqoop等离线数据迁移job都是利用shell脚本通过crontab进行定<em>时</em>执行,这样实现的话比较简单,但是随着多个job复杂度的提升,无论是协调工作还是任务监控都变得麻烦,我们选择使用oozie来对工作流进行调度监控。在此介绍一下oozie~ 注:我的 <em>Oozie</em> server version:[4.1.0 - CDH 5.13.0] 一、官网介绍 首先看官网首...
使用Oozie执行coordinator定任务,如果start设得过早,如何避免补跑?
``` ${workflowAppUri} jobTracker ${jobTracker} nameNode ${nameNode} queueName ${queueName} ``` 比如上面的是我coordinator.xml的配置内容 我在2017-08-01的 17:00启动这个<em>Oozie</em>任务 我期望的是 17:00执行一次 17:05执行一次 17:10执行一次 ...... 然而实际上不是的,我的任务一启动,它会先自动连续着执行12次 分别为 补跑16:00一次 补跑16:05一次 补跑16:10一次 ... 全部补跑完后,才进入正轨去按<em>时</em>间定<em>时</em>执行 请问如何避免? 谢谢
028-解决cdh6.2 报 Failed to install Oozie ShareLib
这是坚持技术写作计划(含翻译)的第28篇,定个小目标999,每周最少2篇。 本文主要参考0590-6.1.0-C6升级过程中<em>Oozie</em>共享库的问题分析,这个问题是,cdh6.2的通病,只要<em>安装</em>oozie就会出现(无论是升级,还是新装)。 纠正解决方案里的软连接问题 cd /opt/cloudera/parcels/CDH/lib/oozie/libtools ln -s ../../....
oozie调用sqoop import任务,一直处于running状态
sqoop import命令在窗口直接执行<em>时</em>没有问题的,但是通过oozie去调用就出现这种问题 oozie调用sqoop list-databases也是可以成功的 有没有大神给分析一下是哪些地方的问题,内存不足还是什么问题 workflow.xml ${jobTracker} ${nameNode} mapred.job.queue.name ${queueName} import --connect jdbc:mysql://10.148.1.100:3306/test --username root --password 123456 --table person --target-dir /user/root/testSqoop/output --fields-terminated-by "," --num-mappers 1 --direct Sqoop failed, error message[${wf:errorMessage(wf:lastErrorNode())}] ``` ``` oozie console ![图片说明](https://img-ask.csdn.net/upload/201806/14/1528947330_88228.png) hadoop applacation ![图片说明](https://img-ask.csdn.net/upload/201806/14/1528947357_833279.png) ![图片说明](https://img-ask.csdn.net/upload/201806/14/1528947683_649469.png) 疑问为什么会起两个 MAPREDUCE任务 虚拟机内存情况 ![图片说明](https://img-ask.csdn.net/upload/201806/14/1528947717_507668.png) 日志信息 2018-06-14 11:08:20,625 [uber-SubtaskRunner] WARN org.apache.sqoop.tool.SqoopTool - $SQOOP_CONF_DIR has not been set in the environment. Cannot check for additional configuration. 2018-06-14 11:08:20,649 [uber-SubtaskRunner] INFO org.apache.sqoop.Sqoop - Running Sqoop version: 1.4.6 2018-06-14 11:08:20,664 [uber-SubtaskRunner] WARN org.apache.sqoop.tool.BaseSqoopTool - Setting your password on the command-line is insecure. Consider using -P instead. 2018-06-14 11:08:20,676 [uber-SubtaskRunner] WARN org.apache.sqoop.ConnFactory - $SQOOP_CONF_DIR has not been set in the environment. Cannot check for additional configuration. 2018-06-14 11:08:20,779 [uber-SubtaskRunner] INFO org.apache.sqoop.manager.MySQLManager - Preparing to use a MySQL streaming resultset. 2018-06-14 11:08:20,784 [uber-SubtaskRunner] INFO org.apache.sqoop.tool.CodeGenTool - Beginning code generation 2018-06-14 11:08:21,235 [uber-SubtaskRunner] INFO org.apache.sqoop.manager.SqlManager - Executing SQL statement: SELECT t.* FROM `person` AS t LIMIT 1 2018-06-14 11:08:21,261 [uber-SubtaskRunner] INFO org.apache.sqoop.manager.SqlManager - Executing SQL statement: SELECT t.* FROM `person` AS t LIMIT 1 2018-06-14 11:08:21,266 [uber-SubtaskRunner] INFO org.apache.sqoop.orm.CompilationManager - HADOOP_MAPRED_HOME is /opt/hadoop-2.6.0 2018-06-14 11:08:23,470 [uber-SubtaskRunner] INFO org.apache.sqoop.orm.CompilationManager - Writing <em>jar</em> file: /tmp/sqoop-root/compile/8750ac72c9db5da23fa902b0a16d1957/person.<em>jar</em> 2018-06-14 11:08:23,485 [uber-SubtaskRunner] INFO org.apache.sqoop.manager.DirectMySQLManager - Beginning mysqldump fast path import 2018-06-14 11:08:23,485 [uber-SubtaskRunner] INFO org.apache.sqoop.mapreduce.ImportJobBase - Beginning import of person 2018-06-14 11:08:23,486 [uber-SubtaskRunner] INFO org.apache.hadoop.conf.Configuration.deprecation - mapred.job.tracker is deprecated. Instead, use mapreduce.jobtracker.address 2018-06-14 11:08:23,491 [uber-SubtaskRunner] INFO org.apache.hadoop.conf.Configuration.deprecation - mapred.<em>jar</em> is deprecated. Instead, use mapreduce.job.<em>jar</em> 2018-06-14 11:08:23,505 [uber-SubtaskRunner] INFO org.apache.hadoop.conf.Configuration.deprecation - mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps 2018-06-14 11:08:23,509 [uber-SubtaskRunner] WARN org.apache.sqoop.mapreduce.JobBase - SQOOP_HOME is unset. May not be able to find all job dependencies. 2018-06-14 11:08:23,559 [uber-SubtaskRunner] INFO org.apache.hadoop.yarn.client.RMProxy - Connecting to ResourceManager at study/10.148.1.100:8032 2018-06-14 11:08:23,928 [uber-SubtaskRunner] INFO org.apache.sqoop.mapreduce.db.DBInputFormat - Using read commited transaction isolation 2018-06-14 11:08:23,996 [uber-SubtaskRunner] INFO org.apache.hadoop.mapreduce.JobSubmitter - number of splits:1 2018-06-14 11:08:24,051 [uber-SubtaskRunner] INFO org.apache.hadoop.mapreduce.JobSubmitter - Submitting tokens for job: job_1528942657382_0005 2018-06-14 11:08:24,051 [uber-SubtaskRunner] INFO org.apache.hadoop.mapreduce.JobSubmitter - Kind: YARN_AM_RM_TOKEN, Service: , Ident: (appAttemptId { application_id { id: 4 cluster_timestamp: 1528942657382 } attemptId: 1 } keyId: 589196118) 2018-06-14 11:08:24,053 [uber-SubtaskRunner] INFO org.apache.hadoop.mapreduce.JobSubmitter - Kind: RM_DELEGATION_TOKEN, Service: 10.148.1.100:8032, Ident: (owner=root, renewer=oozie mr token, realUser=root, issueDate=1528945693299, maxDate=1529550493299, sequenceNumber=3, masterKeyId=2) 2018-06-14 11:08:24,211 [uber-SubtaskRunner] WARN org.apache.hadoop.mapreduce.v2.util.MRApps - cache file (mapreduce.job.cache.files) hdfs://study:9000/user/root/testSqoop/lib/sqoop-1.4.6-hadoop200.<em>jar</em> conflicts with cache file (mapreduce.job.cache.files) hdfs://study:9000/tmp/hadoop-yarn/staging/root/.staging/job_1528942657382_0005/lib<em>jar</em>s/sqoop-1.4.6-hadoop200.<em>jar</em> This will be an error in Hadoop 2.0 2018-06-14 11:08:24,213 [uber-SubtaskRunner] WARN org.apache.hadoop.mapreduce.v2.util.MRApps - cache file (mapreduce.job.cache.files) hdfs://study:9000/user/root/testSqoop/lib/mysql-connector-java.<em>jar</em> conflicts with cache file (mapreduce.job.cache.files) hdfs://study:9000/tmp/hadoop-yarn/staging/root/.staging/job_1528942657382_0005/lib<em>jar</em>s/mysql-connector-java.<em>jar</em> This will be an error in Hadoop 2.0 2018-06-14 11:08:24,265 [uber-SubtaskRunner] INFO org.apache.hadoop.yarn.client.api.impl.YarnClientImpl - Submitted application application_1528942657382_0005 2018-06-14 11:08:24,301 [uber-SubtaskRunner] INFO org.apache.hadoop.mapreduce.Job - The url to track the job: http://study:8088/proxy/application_1528942657382_0005/ 2018-06-14 11:08:24,301 [uber-SubtaskRunner] INFO org.apache.hadoop.mapreduce.Job - The url to track the job: http://study:8088/proxy/application_1528942657382_0005/ 2018-06-14 11:08:24,302 [uber-SubtaskRunner] INFO org.apache.hadoop.mapreduce.Job - Running job: job_1528942657382_0005 2018-06-14 11:08:24,302 [uber-SubtaskRunner] INFO org.apache.hadoop.mapreduce.Job - Running job: job_1528942657382_0005 2018-06-14 11:08:25,976 [communication thread] INFO org.apache.hadoop.mapred.TaskAttemptListenerImpl - Progress of TaskAttempt attempt_1528942657382_0004_m_000000_0 is : 1.0 2018-06-14 11:08:25,976 [communication thread] INFO org.apache.hadoop.mapred.TaskAttemptListenerImpl - Progress of TaskAttempt attempt_1528942657382_0004_m_000000_0 is : 1.0 Heart beat 2018-06-14 11:08:56,045 [communication thread] INFO org.apache.hadoop.mapred.TaskAttemptListenerImpl - Progress of TaskAttempt attempt_1528942657382_0004_m_000000_0 is : 1.0 2018-06-14 11:08:56,045 [communication thread] INFO org.apache.hadoop.mapred.TaskAttemptListenerImpl - Progress of TaskAttempt attempt_1528942657382_0004_m_000000_0 is : 1.0 Heart beat 2018-06-14 11:09:26,082 [communication thread] INFO org.apache.hadoop.mapred.TaskAttemptListenerImpl - Progress of TaskAttempt attempt_1528942657382_0004_m_000000_0 is : 1.0 2018-06-14 11:09:26,082 [communication thread] INFO org.apache.hadoop.mapred.TaskAttemptListenerImpl - Progress of TaskAttempt attempt_1528942657382_0004_m_000000_0 is : 1.0 Heart beat
oozie简单应用
前言:        因为工作需要用到oozie,但是晚上的资料确实越看越迷茫,经过很大的努力,终于折腾清楚了,这里,做一个总结,帮助后来者更好地进行入门,当然,粗鄙之言,难免疏漏,欢迎交流指正   引入:        对于我们的工作,可能需要好几个hadoop作业(job)来协作完成,往往一个job的输出会被当做另一个job的输入来使用,这个<em>时</em>候就涉及到了数据流的处理。       ...
oozie安装,oozie-docs报错
[INFO] Unable to load parent project from a relative path: 1 problem was encountered while building the effective model [FATAL] Non-readable POM /home/oozie/oozie-4.2.0/../pom.xml: /home/oozie/oozie-4.2.0/../pom.xml (No such file or directory) @ for project at /home/oozie/oozie-4.2.0/../pom.xml for project at /home/oozie/oozie-4.2.0/../pom.xml [INFO] Parent project loaded from repository. [INFO] ------------------------------------------------------------------------ [INFO] Reactor Summary: [INFO] [INFO] Apache <em>Oozie</em> Main ................................. SUCCESS [ 1.418 s] [INFO] Apache <em>Oozie</em> Hadoop Utils ......................... SUCCESS [ 0.931 s] [INFO] Apache <em>Oozie</em> Hadoop Distcp hadoop-1-4.2.0 ......... SUCCESS [ 0.114 s] [INFO] Apache <em>Oozie</em> Hadoop Auth hadoop-1-4.2.0 ........... SUCCESS [ 0.151 s] [INFO] Apache <em>Oozie</em> Hadoop Libs .......................... SUCCESS [ 0.022 s] [INFO] Apache <em>Oozie</em> Client ............................... SUCCESS [ 15.918 s] [INFO] Apache <em>Oozie</em> Share Lib <em>Oozie</em> ...................... SUCCESS [ 1.950 s] [INFO] Apache <em>Oozie</em> Share Lib HCatalog ................... SUCCESS [ 7.325 s] [INFO] Apache <em>Oozie</em> Share Lib Distcp ..................... SUCCESS [ 0.618 s] [INFO] Apache <em>Oozie</em> Core ................................. SUCCESS [ 36.660 s] [INFO] Apache <em>Oozie</em> Share Lib Streaming .................. SUCCESS [ 3.166 s] [INFO] Apache <em>Oozie</em> Share Lib Pig ........................ SUCCESS [ 4.054 s] [INFO] Apache <em>Oozie</em> Share Lib Hive ....................... SUCCESS [ 8.105 s] [INFO] Apache <em>Oozie</em> Share Lib Hive 2 ..................... SUCCESS [ 3.258 s] [INFO] Apache <em>Oozie</em> Share Lib Sqoop ...................... SUCCESS [ 1.792 s] [INFO] Apache <em>Oozie</em> Examples ............................. SUCCESS [ 3.329 s] [INFO] Apache <em>Oozie</em> Share Lib Spark ...................... SUCCESS [ 3.642 s] [INFO] Apache <em>Oozie</em> Share Lib ............................ SUCCESS [ 12.581 s] [INFO] Apache <em>Oozie</em> Docs ................................. FAILURE [ 16.097 s] [INFO] Apache <em>Oozie</em> WebApp ............................... SKIPPED [INFO] Apache <em>Oozie</em> Tools ................................ SKIPPED [INFO] Apache <em>Oozie</em> Mini<em>Oozie</em> ............................ SKIPPED [INFO] Apache <em>Oozie</em> Distro ............................... SKIPPED [INFO] Apache <em>Oozie</em> ZooKeeper Security Tests ............. SKIPPED [INFO] ------------------------------------------------------------------------ [INFO] BUILD FAILURE [INFO] ------------------------------------------------------------------------ [INFO] Total time: 02:02 min [INFO] Finished at: 2015-11-30T17:12:19+08:00 [INFO] Final Memory: 192M/2008M [INFO] ------------------------------------------------------------------------ [ERROR] Failed to execute goal org.apache.maven.plugins:maven-site-plugin:2.0-beta-6:site (default) on project oozie-docs: Error parsing site descriptor: Unrecognised tag: 'html' (position: START_TAG seen ... @1:6) -> [Help 1] [ERROR] [ERROR] To see the full stack trace of the errors, re-run Maven with the -e switch. [ERROR] Re-run Maven using the -X switch to enable full debug logging. [ERROR] [ERROR] For more information about the errors and possible solutions, please read the following articles: [ERROR] [Help 1] http://cwiki.apache.org/confluence/display/MAVEN/MojoExecutionException [ERROR] [ERROR] After correcting the problems, you can resume the build with the command [ERROR] mvn -rf :oozie-docs ERROR, <em>Oozie</em> distro creation failed
oozie的sharelib没有正确放到hadoop中,导致异常/user/oozie/share/lib does not exist
一、异常表现    通常情况下,正确的<em>安装</em>oozie,其share lib都会放到Hadoop的/user/oozie/share/lib目录中,但是也有可能在出现某种情况异常如权限不对等的情况下,导致/user/oozie/share/lib没有正确的放入oozie的share lib,其错误可能表示为如下已知的两种情况:    1、通过HUE的界面的QUERY-&amp;gt;Editor-&amp;gt;J...
maven项目打jar包的候报错:Failed to execute goal on project xxxx: Could not resolve dependencies for project
maven项目要打包成<em>jar</em>部署到服务器上的<em>时</em>候报类似的错: Failed to execute goal on project xxxx: Could not resolve dependencies for project xxxxxx:xxx:<em>jar</em>:0.0.1-SNAPSHOT: Cannot access central (https://xxxxxx) in offline mode ...
开启kerberos,oozie执行作业失败
安全模式下,开启kerberos认证,在oozie命令行提交yarn作业执行失败 Client cannot authenticate via [TOkEN,KERBEROS ],Host details:localhost is "hst01";destination Host is "hst03":9000;
oozie调用sqoop import任务,出现异常
oozie4.3.1 sqoop1.4.7 workflow.xml ``` ${jobTracker} ${nameNode} mapred.job.queue.name ${queueName} oozie.sqoop.log.level WARN import --connect jdbc:mysql://study:3306/test --username root --password 123456 --table terminal_info --where "update_time between 20180615230000 and 20180616225959" --target-dir "/user/hive/warehouse/temp_terminal_info" --append --fields-terminated-by "," --lines-terminated-by "\n" --num-mappers 1 --direct Sqoop failed, error message[${wf:errorMessage(wf:lastErrorNode())}] ``` oozie job log 2018-06-19 10:12:10,615 WARN SqoopActionExecutor:523 - SERVER[study] USER[root] GROUP[-] TOKEN[] APP[sqoop-import-wf] JOB[0000017-180619092621453-oozie-root-W] ACTION[0000017-180619092621453-oozie-root-W@sqoop-node] Launcher ERROR, reason: Main class [org.apache.oozie.action.hadoop.SqoopMain], exit code [1] mapreduce job 执行成功了 ``` Job Name: oozie:launcher:T=sqoop:W=sqoop-import-wf:A=sqoop-node:ID=0000017-180619092621453-oozie-root-W User Name: root Queue: root.root State: SUCCEEDED Uberized: true Submitted: Tue Jun 19 10:11:59 CST 2018 Started: Tue Jun 19 10:12:07 CST 2018 Finished: Tue Jun 19 10:12:08 CST 2018 Elapsed: 1sec Diagnostics: Average Map Time 1sec ``` 但是oozie 出现了 Launcher ERROR, reason: Main class [org.apache.oozie.action.hadoop.SqoopMain], exit code [1] 也没有其他的日志,请问有碰到这样问题的朋友吗 或者怎么去排查这个问题 求大神帮忙
oozie的定spark2任务出现一直running的状态,并且查看任务发现有异常
具体任务的日志:2018-06-30 17:18:06,936 ERROR org.apache.hadoop.mapreduce.v2.app.rm.RMCommunicator: ERROR IN
oozie sharelib问题
启动<em>Oozie</em>之后oozie-error.log会显示ERROR ShareLibService:517 - SERVER[master] org.apache.oozie.service.ServiceException: E0104:Could not fully initialize service [org.apache.oozie.service.ShareLibService], Not
maven出现:Failed to execute goal on project ...: Could not resolve dependencies for project ...
1、我的项目结构是一个父项目,多个子项目目录如下:2、我这里就举个例子,所以应用的也就是core和domain这两个项目。3、两个项目都继承父项目4、在模块中domain依赖于core,在core中执行完clean和install之后,本地仓库也存在依赖,但是在domain中进行install就会出现Failed to execute goal on project ...: Could not r
oozie-4.0.0 编译问题
在使用MAVEN编译的<em>时</em>候总是报错,请问怎么解决呢?使用的是HIVE 0.13.0的版本 Apache <em>Oozie</em> HCatalog 0.5.0.oozie-4.0.0 ........... FAI
oozie整理
Hadoop作业流调度系统基本功能     对常见作业类型进行调度         MapReduce(Java、Streaming等)作业         Hive作业         Pig作业         Shell …. <em>Oozie</em>运行流程 <em>Oozie</em>基本架构 <em>Oozie</em> 使用方式
oozie安装遇到问题解决
<em>安装</em>按照官网:http://oozie.apache.org/docs/4.1.0/DG_QuickStart.html1.其中:Building <em>Oozie</em>过程,由于联网下载组件,耗<em>时</em>较长,大约1到数个小<em>时</em>。 hadoop.proxyuser.[OOZIE_SERVER_USER].hosts [OOZIE_SERVER_HOSTNAME] h
oozie教程
文章转载自 http://blog.csdn.net/nsrainbow/article/details/43746111  <em>Oozie</em>的3个概念 <em>Oozie</em>有3个主要概念 workflow  工作流coordinator 多个workflow可以组成一个coordinator,可以把前几个workflow的输出作为后一个workflow的输入,也可以定义workflow的触发条件,
oozie.action.ActionExecutorException: Could not locate Oozie sharelib
解决:在oozie-site.xml中添加:
Oozie 报错的解决方法
1,错误信息:       org.apache.oozie.action.ActionExecutorException: Could not locate <em>Oozie</em> sharelib at org.apache.oozie.action.hadoop.JavaActionExecutor.addSystemShareLibForAction(JavaActionExecutor.java
Oozie启动作业遇到的坑
基于Kerberos权限认证对利用<em>Oozie</em>启动作业环境<em>Oozie</em>启动作业的命令(启动的是<em>Oozie</em>的官方examples)运行oozie命令,运行 examples中的job查看oozie web UI要改变运行Job的User 环境 CDH-5.14.2 <em>Oozie</em>启动作业的命令(启动的是<em>Oozie</em>的官方examples) 在系统中<em>找</em>到 oozie-examples.tar.gz,加压缩后出现...
oozie 默认系统库位置和java代码调用oozie指定具体位置jar写法
      http://blog.csdn.net/bluishglc/article/details/46005269   这个链接是说 关于oozie系统库systm lib path hdfs设定位置   http://ju.outofmemory.cn/entry/31134      这个链接是说 <em>Oozie</em> 出现 ClassNotFoundException 解决方法 ...
oozie调用shell中的问题
大家好,我使用oozie调用shell 。调用简单的shell是已经成功了,比如在shell中 创建hdfs目录,但是我现在shell中,需要调用一个用scala写的<em>jar</em>包,内容如下: nohup /apps/scala-2.10.5/bin/scala /opt/oozie-work/<em>jar</em>s/STBLogProduct7.<em>jar</em> hdfs://bigdata1:8020 /user/root/mytest/stblog/ >> /opt/oozie-work/logs/producelog.log 2>&1 &这样调用<em>时</em>不成功的。 我的问题是当使用oozie调用shell,shell又调用别的<em>jar</em>,这个<em>jar</em>包应该放到hdfs还是本地目录,shell的执行是在本地文件系统吗?那么怎么<em>找</em>得到我的<em>jar</em>包呢?
Oozie 介绍
Hadoop 调度框架 Linux Crontab Azkaban https://azkaban.github.io/ <em>Oozie</em> http://oozie.apache.org/ Zeus https://github.com/michael8335/zeus2 Azkaban, Open-source Workflow Manager <em>Oozie</em>, Workfl...
oozie的安装和使用
包括<em>安装</em>,配置,使用,shell action ,hive action,MapReduce action,sqoop action。
Oozie介绍
首先本人以前还真不知道<em>Oozie</em>这个东东,经别人说才知道,所以感觉也是比较惭愧。毕竟正在做的项目DIP-DATA-ANALYZE与这个有些共同处,就是提供类似工作流的机制更好的调度任务。不过<em>Oozie</em>支持的更多,支持了pig,直接mr,streaming。我们目前是基于hive的,当然也可以支持streaming,mr,不过目前还没有。         另外一个不同是<em>Oozie</em>使用自定义的xml
oozie 调用 sqoop,出现这个错误 Failing Oozie Launcher
Sqoop command arguments : import --connect jdbc:mysql://cdh5.hadoop.com:3306/test --username root --
oozie oozie
Hadoop oozie报错:Table ‘oozie.VALIDATE_CONN’ doesn’t exist 。 oozie建表sql,直接下载执行
cloudera hue创建oozie workflow跑pyspark程序方法
请问大家有没有在cloudera hue界面创建oozie workflow跑pyspark程序? 我模仿官网例子试 workflow详细如下: spark-p
Spark2与Oozie整合
项目背景 公司部门成立初期,现在业务是由Shell脚本编写然后定<em>时</em>进行运行。由于现在公司一般都是搭建的CDH,内置有<em>Oozie</em>。且<em>Oozie</em>操作简单,功能强大,并且有很好的图形化界面所以还是想要搞一下。在搞的过程中出现了一堆问题,就是spark2与<em>Oozie</em>的整合现在不是很成熟,网上资料也很少,基本是淌着过去的。。。 运行环境 CDH:CDH-5.13.2-1.cdh5.13.2. Ja...
oozie在yarn上卡死问题
执行了shell-node测试然后一直卡在running,不过我在rm上看发现job是完成的 可以oozie没有接收到返回值,最终被挂起。 错误提示:JA002: User: oozie is not
oozie 调用spark报错
-
oozie运行shell,namenode缓存没有文件
2015-10-01 18:07:13,627 WARN ShellActionExecutor:544 - SERVER USER GROUP TOKEN APP JOB ACTION Launch
hue界面使用oozie执行shell脚本报错
2017-04-18 16:52:27,143 WARN org.apache.oozie.action.hadoop.ShellActionExecutor: SERVER USER GROUP T
重装hdfs后,oozie报错Could not locate Oozie sharelib
下载地址:http://archive.cloudera.com/cdh5/cdh/5/oozie-4.1.0-cdh5.14.2.tar.gz   将tar包上传到服务器: $ mkdir /tmp/ooziesharelib $ cd /tmp/ooziesharelib $ tar -zxvf oozie-4.1.0-cdh5.14.2.tar.gz $ cd oozie-4.1...
Hue + Oozie + Sqoop 使用
有个刚接触的人不知道的是,<em>Oozie</em> 自带 sqoop、hive 等常用组件,比如执行sqoop脚本命令<em>时</em>,并不是你主机里或者CDH里的的sqoop,而是 HDFS 下 <em>Oozie</em> 里的 sqoop 在起作用,这也是为什么 总是报 Could not load db driver class 的原因了,因为根本不是同一个sqoop。 还有 Hue 里的 Sqoop 1,你在这里写的脚本,执行<em>时</em>实
cdh版hadoop+hive+oozie+hue部署方案选择
目前支持这些服务部署的方案挺乱而且挺零碎,有没有论坛大牛整理过一套方案,类似与CDH manager部署方案,可cdh manager方案部署并不是很详细,许多ha服务部署以及服务之间的关系对于创业公
CDH安装的oozie,oozie在运行任务出现如下问题
ActionExecutorException: JA017: Could not lookup launched hadoop Job ID
【Maven】maven 打包Could not resolve dependencies for project
maven 打包Could not resolve dependencies for project 1.maven 打包Could not resolve dependencies for project 项目上使用的是idea ide的多模块话,也就是父子工程,需要模块之间的依赖,比如说服务模块依赖协议模块进行数据打包传送 问题是清理了maven仓库后,再对子工程进行mvn pack...
Oozie错误解决方法
错误一: 错误提示:ERROR: Bad Request;default/E1004 : E1004: Expression language evaluation error, Unable to evaluate :${now(0,-5)}: CausedBy: E1004: Expression language evaluation error, Unable to evaluat
怎么用qsub提交作业
想用集群做计算,对此一窍不通,刚刚登录服务器上运行 发现是在管理节点上运行而不是计算节点上 所以赶快中止程序 现在看到要求是用Torque调度系统提交作业 用qsub 一丁点儿都不会 网上都到关于qs
Oozie简介
在Hadoop中执行的任务有<em>时</em>候需要把多个Map/Reduce作业连接到一起,这样才能够达到目的。[1]在Hadoop生态圈中,有一种相对比较新的组件叫做<em>Oozie</em>[2],它让我们可以把多个Map/Reduce作业组合到一个逻辑工作单元中,从而完成更大型的任务。本文中,我们会向你介绍<em>Oozie</em>以及使用它的一些方式。 什么是<em>Oozie</em>? <em>Oozie</em>是一种Java Web应用程序,
oozie-远程debug参数说明
早期版本4.3.0以及之前版本 1. oozie调试Spark应用程序 在SparkOpts中添加: sparkOpts=--conf &quot;spark.driver.extraJavaOptions=-Xdebug -Xrunjdwp:transport=dt_socket,server=y,syspend=y,address=8000&quot; 2. oozie调试Mapper进行调度相应的Action...
oozie 调度 spark on yarn 阻塞问题
在用 oozie 调度 spark on yarn <em>时</em>候出现阻塞情况,tsts1任务进度条一直到如图红色那边就不动了,oozie 的 mr 任务也在90%左右不动,希望有大神提点一下 mr任务的log
oozie 入门
oozie 入门 oozie概述:oozie能干什么 oozie格式:怎么用oozie oozie执行:怎么运行oozie
Hue、Hive、Sentry、Airflow、Oozie
本篇博文主要讲解的是Hue这个开源软件。通过阅读本博客,可以从宏观的角度了解Hue这个应用。本文介绍了什么是Hue,Hue的架构,Hue的特点,在Hue上面使用Hive的优点,在Hue上浏览文件和数据,使用Hue可以对HDFS做哪些操作, 大数据授权管理的背景,Hue使用的授权管理的组件Sentry,介绍了Sentry的组件和架构,Sentry的特点,工作流的概念,开源工具<em>Oozie</em>和开源工具air
ozzie 4.3.0编译报错 报错信息如图
![图片说明](https://img-ask.csdn.net/upload/201811/27/1543316248_515715.jpg)
急问,oozie执行hive脚本报错
装的cloudera cdh5,在oozie上执行hive的脚本,脚本只有一个select语句“select * from apprunfstat”,报下面的<em>找</em><em>不到</em>表的错误。 但是直接在hive查询编
maven提示:Failed to execute goal on project ...: Could not resolve dependencies for project ...
项目结构(父项目包含多个子项目): easyreport-common项目和easyreport-support项目都是easyreport 的子项目,其中easyreport-common项目 依赖easyreport-support项目。在easyreport-support中执行完clean和install之后,本地仓库也存在依赖,但是在easyreport-common中进行inst...
Oozie 快速入门
设想一下,当你的系统引入了spark或者hadoop以后,基于Spark和Hadoop已经做了一些任务,比如一连串的Map Reduce任务,但是他们之间彼此右前后依赖的顺序,因此你必须要等一个任务执行成功后,再手动执行第二个任务。是不是很烦! 这个<em>时</em>候<em>Oozie</em>(驯象人,典故来自评论一楼)就派上用场了,它可以把多个任务组成一个工作流,自动完成任务的调用。 简介 <em>Oozie</em>是一个基于工作流引擎...
Could not resolve dependencies for project
比如有两个项目A和B 其中B项目需要引入A项目打的<em>jar</em>包,B是web项目,但是在B项目install的<em>时</em>候报错,后台直接用跟项目install就可以了,多模块直接用跟install记住啊!...
Hue-oozie运行spark
本文档是入门文档,详细描述使用Hue编辑workflows提交spark程序。
oozie启动状态成功,可是运行简单的shell脚本报错
这是报的错: 2018-10-18 15:10:17,363 INFO ActionStartXCommand:520 - SERVER[3HHadoopMaster1] USER[admin] GROUP[-] TOKEN[] APP[测试脚本] JOB[0000018-181018103446731-oozie-hado-W] ACTION[0000018-181018103446731-oozie-hado-W@shell-b6f7] Next Retry, Attempt Number [3] in [10,000] milliseconds 2018-10-18 15:10:27,408 INFO ActionStartXCommand:520 - SERVER[3HHadoopMaster1] USER[admin] GROUP[-] TOKEN[] APP[????] JOB[0000018-181018103446731-oozie-hado-W] ACTION[0000018-181018103446731-oozie-hado-W@shell-b6f7] Start action [0000018-181018103446731-oozie-hado-W@shell-b6f7] with user-retry state : userRetryCount [0], userRetryMax [0], userRetryInterval [10] 2018-10-18 15:10:27,534 WARN ActionStartXCommand:523 - SERVER[3HHadoopMaster1] USER[admin] GROUP[-] TOKEN[] APP[测试脚本] JOB[0000018-181018103446731-oozie-hado-W] ACTION[0000018-181018103446731-oozie-hado-W@shell-b6f7] Error starting action [shell-b6f7]. ErrorType [TRANSIENT], ErrorCode [JA009], Message [JA009: Unknown rpc kind in rpc headerRPC_WRITABLE] org.apache.oozie.action.ActionExecutorException: JA009: Unknown rpc kind in rpc headerRPC_WRITABLE at org.apache.oozie.action.ActionExecutor.convertExceptionHelper(ActionExecutor.java:463) at org.apache.oozie.action.ActionExecutor.convertException(ActionExecutor.java:437) at org.apache.oozie.action.hadoop.JavaActionExecutor.submitLauncher(JavaActionExecutor.java:1244) at org.apache.oozie.action.hadoop.JavaActionExecutor.start(JavaActionExecutor.java:1411) at org.apache.oozie.command.wf.ActionStartXCommand.execute(ActionStartXCommand.java:232) at org.apache.oozie.command.wf.ActionStartXCommand.execute(ActionStartXCommand.java:63) at org.apache.oozie.command.XCommand.call(XCommand.java:286) at java.util.concurrent.FutureTask.run(FutureTask.java:266) at org.apache.oozie.service.CallableQueueService$CallableWrapper.run(CallableQueueService.java:179) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) at java.lang.Thread.run(Thread.java:748) Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.RpcServerException): Unknown rpc kind in rpc headerRPC_WRITABLE at org.apache.hadoop.ipc.Client.call(Client.java:1504) at org.apache.hadoop.ipc.Client.call(Client.java:1441) at org.apache.hadoop.ipc.WritableRpcEngine$Invoker.invoke(WritableRpcEngine.java:246) at org.apache.hadoop.mapred.$Proxy33.getDelegationToken(Unknown Source) at org.apache.hadoop.mapred.JobClient.getDelegationToken(JobClient.java:2153) at org.apache.oozie.service.HadoopAccessorService.createJobClient(HadoopAccessorService.java:502) at org.apache.oozie.action.hadoop.JavaActionExecutor.createJobClient(JavaActionExecutor.java:1454) at org.apache.oozie.action.hadoop.JavaActionExecutor.submitLauncher(JavaActionExecutor.java:1192) ... 9 more 2018-10-18 15:10:27,538 WARN ActionStartXCommand:523 - SERVER[3HHadoopMaster1] USER[admin] GROUP[-] TOKEN[] APP[测试脚本] JOB[0000018-181018103446731-oozie-hado-W] ACTION[0000018-181018103446731-oozie-hado-W@shell-b6f7] Exceeded max retry count [3]. Suspending Job 2018-10-18 15:10:27,538 WARN ActionStartXCommand:523 - SERVER[3HHadoopMaster1] USER[admin] GROUP[-] TOKEN[] APP[测试脚本] JOB[0000018-181018103446731-oozie-hado-W] ACTION[0000018-181018103446731-oozie-hado-W@shell-b6f7] Suspending Workflow Job id=0000018-181018103446731-oozie-hado-W 脚本内容: #! /bin/bash echo "hello" >> /home/hadoop/text.txt
oozie 用法说明
本博客一共包含ooize workflow流程写法,job.properties 文件配置,ooize 任务的启动与杀死。 oozie 流程定义: 1.workflow 的开始和workflow 的命名 &amp;lt;workflow-app xmlns=&quot;uri:oozie:workflow:0.2&quot; name=&quot;adx-wf&quot;&amp;gt; &amp;lt;start to=&quot;adx_clean_fork...
oozie-4.2.0编译问题,ERROR, Oozie distro creation failed
今天公司领导,叫我研究下oozie,然后跟着网上的oozie-4.2.0<em>安装</em>说明操作,结果出现ERROR, <em>Oozie</em> distro creation failed, 我下的是oozie-4.2.0
oozie运行shell报错
Log Type: stderr Log Upload Time: 星期三 十月 12 09:53:02 +0800 2016 Log Length: 2065 Failing <em>Oozie</em> Launc
Oozie基础小结
<em>Oozie</em>是一个工作流引擎服务器,用于运行hadoop map/reduce和hive等任务工作流。 同<em>时</em><em>Oozie</em>还是一个java web程序,运行在java servlet容器中,如tomcat中。 <em>Oozie</em>以action为基本单位,可以将多个action构成一个DAG图的模式运行。 <em>Oozie</em>工作流通过HPDL(一种通过XML自定义处理的语言)来构造<em>Oozie</em>工作流。 一个oozi
oozie调度sqoop踩坑之路(hue配置)
背景: 通过oozie来调度管理sqoop数据抽取流程,一般有两种方法:一是直接使用oozie的sqoop-action,二是将sqoop语句写在shell脚本中,通过shell-action来调度。经过测试,sqoop-action实在是坑多,故采用坑相对较少的shell-action~ 集群环境:CDH 5.13.0 ,其中oozie版本:4.1.0,sqoop版本:1.4.6 ...
hue安装运行候提示:oozie share lib not installed in default location.
hue<em>安装</em>运行<em>时</em>候提示:oozie share lib not installed in default location.
CDH5.12.1群集设置启动oozie报错 denied for user
启动oozie<em>时</em>,报错: org.apache.oozie.service.ServiceException: E0103: Could not load service classes, Canno
hue界面oozie运行sqoop报错
Log Upload Time: Tue Apr 18 16:35:57 +0800 2017 Log Length: 2550 log4j:ERROR Could not find value fo
Oozie学习笔记
业务流程管理JBPM(Java Business Process Management)是覆盖了业务流程管理、工作流、服务协作等领域的一个开源的、灵活的、易扩展的可执行流程语言框架 <em>Oozie</em>是类似JBPM的用于 Hadoop 平台的开源的工作流调度引擎,用来管理Hadoop作业,属于web应用程序,由<em>Oozie</em> client和<em>Oozie</em> Server两个组件构成,<em>Oozie</em> Server运行于...
Oozie实例
一、运行官方实例 解压<em>Oozie</em>目录下的oozie-examples.tar.gz tar -zxvf oozie-examples.tar.gz 解压完成后会创建一个examples文件夹 将程序上传到HDFS的家目录 bin/hdfs dfs -put /opt/cdh-5.3.6/oozie-4.0.0-cdh5.3.6/examples examples运行官方mapreduce修改j
oozie 提交examples中的map-reduce的异常
hadoop<em>安装</em>成功,oozie<em>安装</em>成功,页面显示正常 在提交工作map-reduce<em>时</em>产生异常, 日志信息: 2015-08-21 19:20:44,442 WARN V1JobsServlet:542 - USER[-] GROUP[-] TOKEN[-] APP[-] JOB[-] ACTION[-] URL[POST http://master:11000/oozie/v1/jobs?action=start] error[E0902], E0902: Exception occured: [Call to master/192.168.52.129:9000 failed on local exception: java.io.IOException: Broken pipe] org.apache.oozie.servlet.XServletException: E0902: Exception occured: [Call to master/192.168.52.129:9000 failed on local exception: java.io.IOException: Broken pipe] at org.apache.oozie.servlet.BaseJobServlet.checkAuthorizationForApp(BaseJobServlet.java:201) at org.apache.oozie.servlet.BaseJobsServlet.doPost(BaseJobsServlet.java:97) 求大神解决啊
oozie 运行hive报错 Could not retrieve transation read-only status server
这个问题快折磨死我了,<em>找</em>了很多方法,换mysql驱动什么的都试过了,没效果,求大虾: 错误代码: ERROR org.apache.hadoop.hive.metastore.RetryingHMSH
Alex 的 Hadoop 菜鸟教程: 第20课 工作流引擎 Oozie
简单的说<em>Oozie</em>是一个工作流引擎。只不过它是一个基于Hadoop的工作流引擎,在实际工作中,遇到对数据进行一连串的操作的<em>时</em>候很实用,不需要自己写一些处理代码了,只需要定义好各个action,然后把他们串在一个工作流里面就可以自动执行了。对于大数据的分析工作非常有用。本教程说明了oozie的概念、<em>安装</em>和使用,通过一个例子来让大家感性的认识oozie工作流
工作流开源系统--OOZIE
对比<em>Oozie</em>以及Azkaban,个人觉得选择<em>Oozie</em>作为流程引擎的选型比较好,理由如下: 1.<em>Oozie</em>是基于Hadoop系统进行操作,而Azkaban是基于命令行进行操作。使用hadoop提供的第三方包JobClient比直接在底层跑shell命令开发成本小,可能遇到的坑也少(一个是基于平台,一个是基于系统)。 2.<em>Oozie</em>的操作是放在Hadoop中,而Azkaban的运行是服务器运行...
从头开始 手把手 oozie 安装配置 with an example
<em>安装</em>前准备 <em>安装</em>hadoop,可参考文章:https://blog.csdn.net/lucylove3943/article/details/80589422 不需要pig, hive, spark等等。就follow这两篇blog,一切搞定。 一些必要的<em>安装</em>工作 Maven<em>安装</em> 进入maven 下载页面:https://m...
使用hue集成oozie 运行 shell 脚本 完成度为95% 状态持续为running
查看MR日志,error信息: ![图片说明](https://img-ask.csdn.net/upload/201810/23/1540277077_955455.png) hadoop:8088 上面状态一直为RUNNING ,内存有剩余
Oozie的使用
一:<em>Oozie</em>运行examples。 1、解压示例包 $ tar -zxf oozie-examples.tar.gz -C ./ 2、$ bin/hdfs dfs -put /opt/cdh5/oozie-4.0.0-cdh5.3.6/examples/ 3、编写job.properties # http://www.apache.org/licenses/LICENSE-2
oozie重要配置详解(生产)
1、oozie调度<em>时</em>间更改 linux: 查看<em>时</em>间:date -R(获得是格林尼治<em>时</em>间)+0800:代表东八区 -400:代表西四区 GMT:格林尼治<em>时</em>间oozie-site.xml oozie.processing.timezone ==== GMT+0800 2、定<em>时</em>调度频次大小 oozie.service.coord.check.maximum.frequency
oozie是什么
oozie是什么? 一、前言   我的业务数据在Oracle服务器中存着,在我进行离线任务计算<em>时</em>,需要用到存储于Oracle中的业务数据。夸张点说,我的离线计算任务将持续有一到两个钟头。 在我进行离线计算之前,参与计算的业务数据要保证是最新的。你要让我在计算<em>时</em>查询数据库获取?你怕是要搞事情哦。   能持续有一到两个钟头的离线计算任务,当然是不可能只是一次MapReduce或者一次Spark能搞定的...
oozie的安装
oozie的<em>安装</em> 在本例中,hadoop版本为:0.20.2,oozie版本为:2.3.2 1.下载oozie-2.3.2 可以到cloudera官网下载:http://archive.cloudera.com/cdh/3/oozie-latest.tar.gz 2.解压至指定目录 tar -zxvf oozie-latest.tar.gz 3.设置环境变量: #oozie配置
Oozie原理
前言: 在工作中,可能需要好几个Hadoop作业(job)来协作完成,往往一个job的输出会被当做另一个job的输入来使用,这个<em>时</em>候就涉及到了数据流的处理。 我们不可能就盯着程序,等它运行完再去运行下一个程序,所以,一般的做法就是通过shell来做,但是如果涉及到的工作流很复杂(比方说有1,2,3,4四个作业,1的输出作为2 3 4的输入,然后2 3的结果运算之后再和1的结果进...
Oozie安装
<em>安装</em>基础环境 Maven-3.9.0 Hadoop-2.7.1 Server<em>安装</em> 解压oozie-4.3.0.tar.gz 将oozie的<em>安装</em>包解压到/usr/local目录下: /usr/local/oozie-4.3.0 修改pom.xml &amp;lt;targetJavaVersion&amp;gt;1.8&amp;lt;/targetJavaVersion&amp;gt; &amp;lt;...
oozie Hue操作入门
一。直接在Hue操作 1.创建文件   2.   3. 4. 5. 6. 7. 8. 9.   二。用命令行 从节点目录上传文件到hdfs 节点目录:/home/yuwei/mydoc/test3.sh hdfs目录:/user/yuwei/home/ 1.用hdfs 账户给“hdfs目录:/user/yuwei/ho...
大数据(十二) - Oozie
基本概念     目前计算框架和作业类型繁多:         MapReduce Java、Streaming、HQL、Pig等     如何对这些框架和作业进行统一管理和调度:         不同作业之间存在依赖关系(DAG);         周期性作业         定<em>时</em>执行的作业         作业执行状态监控与报警     多种解决方案:         Cro
oozie 概要
oozie相关概念介绍:   <em>Oozie</em> is a workflow scheduler system to manage Apache Hadoop jobs. <em>Oozie</em> Workflow jobs are Directed Acyclical Graphs (DAGs) of actions. <em>Oozie</em> Coordinator jobs are 
Oozie基础知识:调度器简介及Oozie功能架构
1.<em>Oozie</em>调度框架      * 工作流:将不同的业务进行编排     如:import->hive->export * 调度:对作业或任务和定<em>时</em>执行,或事件的触发执行         如:<em>时</em>间触发、数据集的触发。 2.已有调度框架      (1)hadoop常用的调度框架:     * linux crontab 调度     * Azkaban :有界面,比较简单,功能有
Oozie安装安装过程中存在的问题
1.     从网上下载oozie<em>安装</em>包,下载路径为http://archive.cloudera.com/cdh5/cdh/5/oozie-4.0.0-cdh5.0.1.tar.gz,上传文件到服务器,例如上传到/home/hadoop/local目录下 2.                                 进入/home/hadoop/local目录,运行 tar o
oozie官方案例
首先<em>安装</em>配置完oozieoozied.sh start在后台运行步骤:1、在oozie的根目录下<em>找</em>到oozie-examples.tar.gzoozie-examples.tar.gz2、解压:[hadoop@hadoop002 oozie-4.0.0-cdh5.3.6]$ tar -zxvf oozie-examples.tar.gz解压后结果:3、将此examples传到hdfs的根目录下[h...
oozie使用
oozie job -oozie http://master:11000/oozie -config /opt/cloudera/parcels/CDH-5.7.2-1.cdh5.7.2.p0.18/share/doc/oozie-4.1.0+cdh5.7.2+282/examples/apps/*/job.properties -run 1.所有流程做了一个统一的例子 2.*:只...
oozie应用介绍
在前一篇文章《<em>Oozie</em>简介》中,我们已经描述了<em>Oozie</em>工作流服务器,并且展示了一个非常简单的工作流示例。我们还描述了针对<em>Oozie</em>的工作流的部署和配置,以及用来启动、停止和监控<em>Oozie</em>工作流的工具。 在本文中,我们会描述一个更加复杂的例子,通过它我们可以讨论更多<em>Oozie</em>特性,并演示如何来使用它们。 定义过程 我们在此描述的工作流会实现汽车GPS探测数据的获取过程。我们每个
为什么我关机总显示 A stop job is running for ...
我装的是CENTOS7,映射了网络路径 mount //192.168.0.2/d$ /d2(请不要笑话我的挂载路径的问题),可正常使用,今天想练习iptables,就添加了22端口后又作了 ipta
如何在代码中通过API监控Hadoop、Spark任务的进度和结果?
公司最近要开始搞大数据项目,只好0基础开始学习摸索,目前对基础理论已经入门了,也能单独写一点简单的计算程序跑起来。不过项目需求比较复杂,涉及的技术有好几个,主要为Hadoop2(HDFS、YARN、M
OOZIE
oozie
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂<em>时</em>不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负<em>时</em>间,<em>时</em>间自然不会辜负你。 何谓学习?博主所理解的学习,它
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、PDF搜索网站推荐 对于大部
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学<em>时</em>候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定<em>时</em>更新 顺便拉下票,我在参加csdn博客之星竞选,欢迎投票支持,每个QQ或者微信每天都可以投5票,扫二维码即可,http://m234140.nofollow.ax.
微信公众平台自动回复机器人php代码下载
微信公众平台自动回复机器人php代码 "你可以输入‘help’教我学习聊天,或者输入‘天气’看看天气情况。\r\n你说的内容我不太懂,所以上网查了一下 ^_^\r\n\r\n"; 自动聊天机器人 相关下载链接:[url=//download.csdn.net/download/greatwish/5432851?utm_source=bbsseo]//download.csdn.net/download/greatwish/5432851?utm_source=bbsseo[/url]
PLSQL数据库备份详细讲解和实施下载
详细讲解PL/SQL备份oracle数据库的过程以及可能遇到的问题 相关下载链接:[url=//download.csdn.net/download/hailongno1/5806089?utm_source=bbsseo]//download.csdn.net/download/hailongno1/5806089?utm_source=bbsseo[/url]
分形算法与程序设计_VC++实现.rar下载
分形算法与程序设计_VC++实现.rar 源代码 分形算法与程序设计_VC++实现.rar 相关下载链接:[url=//download.csdn.net/download/guijiarui/1413345?utm_source=bbsseo]//download.csdn.net/download/guijiarui/1413345?utm_source=bbsseo[/url]
相关热词 c# plc s1200 c#里氏转换原则 c# 主界面 c# do loop c#存为组套 模板 c# 停掉协程 c# rgb 读取图片 c# 图片颜色调整 最快 c#多张图片上传 c#密封类与密封方法
我们是很有底线的