centOS 7 安装oracle数据库命令行怎么装?

weixin_45526815 2019-08-14 05:34:42
本人小白,费劲安装上centOS7系统基础版纯命令行,我是人傻了,想安装oracle数据库 一点都不会装 有没有小白能看懂的安装方法,怎么上传安装文件 最简单基础的有没有大神教教我,谢谢!
...全文
362 7 打赏 收藏 转发到动态 举报
写回复
用AI写文章
7 条回复
切换为时间正序
请发表友善的回复…
发表回复
hellsing 2019-08-27
  • 打赏
  • 举报
回复
正常的话也是从先配置yum开始的。你可以去linuxprobe学学liunx,电子书应该是免费下载的,书用的是rhel和centos差不多。
hellsing 2019-08-27
  • 打赏
  • 举报
回复
ftp或者u盘。 另外,安装的命令行去官网查下文档是最好的,还会解释各种参数。 https://oracle-base.com/articles/12c/oracle-db-12cr2-installation-on-oracle-linux-6-and-7 这是12c的。
poker_韬 2019-08-15
  • 打赏
  • 举报
回复
用xftp可以把想要的文件传到linux服务器上去,你电脑上安装好以后直接用xftp登录服务器就能放上去了,界面也挺简单的。
minsic78 2019-08-14
  • 打赏
  • 举报
回复
而且用的系统还是坑多的centos7
weixin_45526815 2019-08-14
  • 打赏
  • 举报
回复
主要使用的环境要用基础版纯命令行
minsic78 2019-08-14
  • 打赏
  • 举报
回复
上传文件就用sftp吧…… 如果你不懂这些基础,还是用图形界面安装会比较好
minsic78 2019-08-14
  • 打赏
  • 举报
回复
11.2的: https://docs.oracle.com/cd/E11882_01/install.112/e47689/app_nonint.htm#LADBI1341
Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(Mysql、Postgresql...)间进行数据的传递,可以将一个关系 型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。项目开始于2009年,最早是作为Hadoop的一个第三方模块存在,后来为了让使用者能够快速部署,也为了让开发人员能够更快速 的迭代开发,Sqoop独立成为一个Apache项目。目前主要有Sqoop1 和 Sqoop2 两大版本。 Sqoop简介 大数据-sqoop全文共16页,当前为第1页。 Sqoop1 和 Sqoop2 结构图。左图是Sqoop1 架构,右图是Sqoop2 架构 Sqoop架构图 大数据-sqoop全文共16页,当前为第2页。 Sqoop版本区别 Sqoop1与Sqoop2优缺点比较。 优点比较: Sqoop1的优点——架构部署简单。 Sqoop2的优点——多种交互方式,命令行,web UI,rest API,conncetor集中化管理,所有的链接在Sqoop server上,完善权限管理机制,connector规范化,仅仅负责数据的读写。 缺点比较: Sqoop1的缺点——命令行方式容易出错,格式紧耦合,无法支持所有数据类型,安全机制不够完善,例如密码暴漏, 需要root权限,connector必须符合JDBC模型 。 Sqoop2的缺点——架构稍复杂,配置部署更繁琐。 大数据-sqoop全文共16页,当前为第3页。 Sqoop2和Sqoop1的功能性对比 Sqoop的版本区别 功能 Sqoop1 Sqoop2 用于所有主要 RDBMS 的连接器 支持 不支持解决办法: 使用已在以下数据库上执行测试的通用 JDBC 连接器: Microsoft SQL Server 、 PostgreSQL 、 MySQL 和 Oracle 。 此连接器应在任何其它符合 JDBC 要求的数据库上运行。但是,性能可能无法与 Sqoop 中的专用连接器相比 Kerberos 安全集成 支持 不支持 数据从 RDBMS 传输至 Hive 或 HBase 支持 不支持解决办法: 按照此两步方法操作。 将数据从 RDBMS 导入 HDFS 在 Hive 中使用相应的工具和命令(例如 LOAD DATA 语句),手动将数据载入 Hive 或 Hbase 大数据-sqoop全文共16页,当前为第4页。 Sqoop版本区别 功能 Sqoop1 Sqoop2 数据从 Hive 或 HBase 传输至 RDBMS 不支持解决办法: 按照此两步方法操作。 从 Hive 或 HBase 将数据提取至 HDFS (作为文本或 Avro 文件) 使用 Sqoop 将上一步的输出导出至 RDBMS 不支持按照与 Sqoop 1 相同的解决方法操作 大数据-sqoop全文共16页,当前为第5页。 Sqoop的用途 Sqoop可以在HDFS/Hive和关系型数据库之间进行数据的导入导出,其中主要使用了import和export这两个工具。 这两个工具非常强大,提供了很多选项帮助我们完成数据的迁移和同步。比如,下面两个潜在的需求: 1、业务数据存放在关系数据库中,如果数据量达到一定规模后需要对其进行分析或统计,单纯使用关系数据 库可能会成为瓶颈,这时可以将数据从业务数据库数据导入(import)到Hadoop平台进行离线分析。 2、对大规模的数据在Hadoop平台上进行分析以后,可能需要将结果同步到关系数据库中作为业务的辅助数据, 这时候需要将Hadoop平台分析后的数据导出(export)到关系数据库。 大数据-sqoop全文共16页,当前为第6页。 提纲 1 sqoop简介 2 sqoop 3 sqoop数据操作 大数据-sqoop全文共16页,当前为第7页。 环境软件准备: 1:Centos 6.8虚拟机 2:含有导入数据的Mysql数据库 3:Sqoop 包 下载地址: https://mirrors.cnnic.cn/apache/sqoop/ Sqoop 大数据-sqoop全文共16页,当前为第8页。 配置环境变量加入Sqoop的路径: 1、进入存放sqoop-1.4.7.tar.gz的目录执行下面的命令 sudo tar -zxvf /home/thinkgamer/下载/sqoop-1.4.7.tar.gz –C sudo mv sqoop-1.4.7/ sqoop 2、编辑/etc/profile文件,声明Sqoop的home路径和在path加入bin的路径: vi /etc/profile 在文件最底部添

17,377

社区成员

发帖
与我相关
我的任务
社区描述
Oracle 基础和管理
社区管理员
  • 基础和管理社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧