Hbase能做到随机读取部分数据么? [问题点数:60分,结帖人whos2002110]

Bbs1
本版专家分:0
结帖率 97.06%
Bbs1
本版专家分:0
Bbs1
本版专家分:0
数据逆排能做到么?
我现在有下面这样的<em>数据</em>rnrnname valuernA 2rnB 1rnC 4rnD 3rn。。。rnrn能通过查询得到下面的结果集么?rnrnname value tovaluernB 1 4rnA 2 3rnD 3 2rnC 4 1rn。。rnrn也就是说 先按照value列排序 然后将结果后增加对应结果集的倒序值列rn这样的SQL怎么写?求大神给个思路rn谢谢
这样能做到共享上网么?
我用的是专线接入,只要接上网线,什么都不要设置即可连上局域网rn现在我有两台电脑,想用一个HUB上网(还没买),如果我将专线接到HUB的UPLINK上rn两台机子接HUB的另外的端口,请问两台机子可以同时上网么,如不能还望高手指点rnrn注:不到万不得已,我不想装双网卡
HBASE的优化部分:HBASE读取表的优化
3.1 多HTable并发读 创建多个HTable客户端用于读操作,提高读<em>数据</em>的吞吐量,一个例子: static final Configuration conf = HBaseConfiguration.create(); static final String table_log_name = “user_log”; rTableLog = new HTable[tableN]; ...
spark2.3 读取hbase的数据
最近发现 <em>读取</em> 客户信息的<em>数据</em>的时候 发现序列化内存不够,超过了默认的64M,<em>数据</em>量有100多万了。 之前客户信息是存储在hdfs上的parquet文件。 现在将客户的信息存储到hbase中去。然后通过Hadoop的API将客户的信息从hbase中<em>读取</em>到缓存到内存中 import org.apache.hadoop.hbase.CellUtil import org.apac...
spark读取hbase数据
importorg.apache.hadoop.hbase.HBaseConfiguration importorg.apache.hadoop.hbase.mapreduce.TableInputFormat importorg.apache.spark.sql.SparkSession importscala.collection.mutable obj...
HBASE部分:HBASE的优化
HBase性能优化方法总结(一):表的设计 1. 表的设计 1.1 Pre-Creating Regions 默认情况下,在创建HBase表的时候会自动创建一个region分区,当导入<em>数据</em>的时候,所有的HBase客户端都向这一个region写<em>数据</em>,直到这个region足够大了才进行切分。一种可以加快批量写入速度的方法是通过预先创建一些空的regions,这样当<em>数据</em>写入HBase时,会按照re...
HBASE部分:HBASE的常用操作
HBASE比较特殊 配置:需要集群 1. 解压 hbase 安装包 [root@node01 sxt]# tar xf hbase-0.98.12.1-hadoop2-bin.tar.gz 2. 配置环境变量 [root@node01 sxt]# vi + /etc/profile export JAVA_HOME=/usr/java/jdk1.7.0_67 export PATH=$...
针对某个继承体系的特化,能做到
我想写一个模板函数或者类,其中需要对某个继承体系的进行特化。rnrnrn简单来说就好像针对stl里的bidirection或者randomaccess的迭代器进行特化一样。rnrnrn除了像STL那样用复杂的trait来做之外,有没有其他的方案?rnrnrnrn需求是比如有一个类叫摄像头webcam,而以后可能会出现其继承者数码摄像头,光子摄像头,电子摄像头,春哥摄像头,而我的泛型类需要对这个继承体系进行特化好利用里面的capture方法,而不是利用运行时的判断,以提高性能rnrnrn说白了就是要实现类似于java里运行时仿模板的rntemplate 这样的功能,我才能在用的时候只要方便地A webcamChun()来初始化对象调用类A的webcam特化版本。rnrnrn在C++里该怎么写,是否有这样的语法:rnrn
禁止保存图片,能做到么?请教高手!
保存网站上图片有以下几种方式,我需要全部禁止,好象是很难……rnrn1.右键保存图片;rnrn2.浏览网站以后,windows的临时文件夹中有该图片;rnrn3.按键盘上的print screen键进行屏幕拷贝。rnrn也许还有其他方式,我暂时没想到……现在应客户要求,需要全部禁止……也就是让用户只能看该图片,而不能拥有该图片……rnrn请高手帮忙,十分感谢!!
Spark读取Hbase中的数据
大家可能都知道很熟悉Spark的两种常见的<em>数据</em><em>读取</em>方式(存放到RDD中):(1)、调用parallelize函数直接从集合中获取<em>数据</em>,并存入RDD中;Java版本如下: JavaRDD myRDD = sc.parallelize(Arrays.asList(1,2,3)); Scala版本如下: val myRDD= sc.parallelize(List(1,2,3)) 这种方式很简单,很
DataGridView能做到这个简单的问题么
vs2005开发winform程序 rn遇到这样一个问题rn<em>数据</em>库表rnt1(name,sex) //0代表女 1代表男rn a 0rn b 1rnrnDataGridView中 增加两个列 分别绑定的是name sexrnrn 如果查询语句 直接 写 select name,sex from t1rn查询语句不改成这样的select name,case sex when 0 then '女' else '男' end sex from t1rnrn怎样才能让 表格根据 sex列的内容0 1 来 显示 女 或者 男,rn而不是<em>数据</em>表的<em>数据</em> 0 1 rnrn急 急 急
Web Service 能做到定时刷新么
感觉根据Web Service 自身程序是不能<em>做到</em>定时刷新的,rn貌似可以使用WebService.htc来使用JScript来调用Web Service从借助JScript的客户端自动刷新而达到Web Service 的目的.rn想请问有达人知道不借助其他手段,在b/s模式下能<em>做到</em>Web Service定时刷新么。
spark 读取hbase中的数据
import org.apache.hadoop.hbase.HBaseConfiguration import org.apache.hadoop.hbase.client.Scan import org.apache.hadoop.hbase.mapreduce.TableInputFormat import org.apache.hadoop.hbase.protobuf.Protob
释放TIF文件,ASP能做到么?
一个TIF文件里包含好多图片,要把这些图片释放出来,分解成一个一个的文件,ASP能<em>做到</em>么? 在服务器端执行就可以.....估计很难,,,,不要只提供思路啊,,,要代码或实例,,分先给40(怕结不了贴啊 呵呵),解决了不够再加!
用sql写能做到么?
表:rn字段A 字段B rn001 XXXrn001 YYYrn002 ZZZrn002 HHHrn002 GGGrn003 FFFrnrn处理成这样的表:rn字段A 字段B 字段C 字段Drn001 XXX YYYrn002 ZZZ HHH GGGrn003 FFFrn
hive 读取查询 hbase 数据
常出现的可能是版本问题, 我hbase使用的是0.96.x hive使用0.13.1版本 如果版本不对会报错。 将hbase lib下的相关包全部移至hive的lib里面, 如下包: guava-12.0.1.jar hbase-client-0.96.1.1-cdh5.0.2.jar hbase-common-0.96.1.1-cdh5.0.2.jar hbase-common...
请问可以随机读取ACCESS表中的数据么?
如题rnSQL应该怎么写呢?向大家请教,谢谢
读取json部分数据
假设A页面有:rnvar str = '["uname":"王强","day":"2010/06/17","uname":"王海云","day":"2010/06/11"]'; rnB页面传过去两个变量如nowpage和perpage:rnnowpage表示当前页,perpage表示每页所展示的<em>数据</em>数量,根据perpage设置不同rn如perpage=1,nowpage=1,只<em>读取</em>"uname":"王强","day":"2010/06/17",rn如perpage=2,nowpage=1,<em>读取</em>"uname":"王强","day":"2010/06/17","uname":"王海云","day":"2010/06/11"。rn该如何实现啊?rn rnrnrn
itext读取部分数据
public class Urls {     public static void main(String[] args) throws IOException {                  URL url=new URL(&quot;file:///C:/Users/SH-B/Desktop/0.pdf&quot;);         readPdf_filter(url);//<em>读取</em>PDF面的某个区域  ...
读取部分数据
R语言中,导入<em>数据</em>太大,往往R会卡死,这时可以用过查看<em>部分</em><em>数据</em>来反应整体<em>数据</em>情况函数:data[1:10,1:10]  <em>读取</em>前10行和后10列
能利用Math.random()生成随机负数么?
Math类里提供生成<em>随机</em>负数的办法了么?如题。rn
hibernate随机读取表的数据
public List getRandResult(final String hql, final Object[] values,final int len){ List list = getHibernateTemplate().executeFind(new HibernateCallback() { public Object doInHibernate(Sessi...
MYSQL随机读取一条数据
项目上有个需求,需要在客户表中<em>随机</em>取一条<em>数据</em>,虽然不是我的活,但是也思考了一下,本来觉得挺简单的,大抵是使用rand函数之类的就可以搞定,但是查了查资料,还真是别有洞天。看了几篇博客,下面介绍几种方式: 方式一: select * from users order by rand() LIMIT 1 好吧,这是第一种方式,也是最低效的方式,完全不考虑sql的性能,运行时间长,而且mys...
随机读取表中的数据
MySql 从table1中<em>随机</em><em>读取</em>10记录,放到刚创建的表table2中(表结构和table1一样) create table table2 as select * from table1 order by rand() limit 10  插入 insert into table2 ( select * from table1 order by rand() limit ...
spark读取HBASE数据不能打印数据
按官方文档写了以下代码:rnrn //<em>读取</em><em>数据</em>并转化成rddrn val hBaseRDD = sc.newAPIHadoopRDD(conf, classOf[TableInputFormat],rn classOf[org.apache.hadoop.hbase.io.ImmutableBytesWritable],rn classOf[org.apache.hadoop.hbase.client.Result])rnrn val count = hBaseRDD.count()rn println(count)rnrn hBaseRDD.foreachcase (_,result) =>rn //获取行键rn val key = Bytes.toString(result.getRow)rn //通过列族和列名获取列rn val name = Bytes.toString(result.getValue("A".getBytes,"姓名".getBytes))rn val age = Bytes.toInt(result.getValue("A".getBytes,"年龄".getBytes))rn println("Row key:"+key+"FileName :"+姓名+" 年龄:"+age)rn rnrn执行成功。但是未能打印出每条<em>数据</em>的具体信息,日志如下:rnrn18/05/14 16:26:50 INFO DAGScheduler: ResultStage 0 (count at test.scala:64) finished in 2.515 srn18/05/14 16:26:50 INFO DAGScheduler: Job 0 finished: count at test.scala:64, took 2.642359 srn[color=#FF0000]38[/color] rn18/05/14 16:26:50 INFO SparkContext: Starting job: foreach at test.scala:71rn18/05/14 16:26:50 INFO DAGScheduler: Got job 1 (foreach at test.scala:71) with 1 output partitionsrn18/05/14 16:26:50 INFO DAGScheduler: Final stage: ResultStage 1 (foreach at test.scala:71)rn18/05/14 16:26:50 INFO DAGScheduler: Parents of final stage: List()rn18/05/14 16:26:50 INFO DAGScheduler: Missing parents: List()rn18/05/14 16:26:50 INFO DAGScheduler: Submitting ResultStage 1 (NewHadoopRDD[0] at newAPIHadoopRDD at test.scala:60), which has no missing parentsrn18/05/14 16:26:50 INFO MemoryStore: Block broadcast_2 stored as values in memory (estimated size 2.1 KB, free 897.2 MB)rn18/05/14 16:26:50 INFO MemoryStore: Block broadcast_2_piece0 stored as bytes in memory (estimated size 1334.0 B, free 897.2 MB)rn18/05/14 16:26:50 INFO BlockManagerInfo: Added broadcast_2_piece0 in memory on 10.251.6.153:56001 (size: 1334.0 B, free: 897.6 MB)rn18/05/14 16:26:50 INFO SparkContext: Created broadcast 2 from broadcast at DAGScheduler.scala:1006rn18/05/14 16:26:50 INFO DAGScheduler: Submitting 1 missing tasks from ResultStage 1 (NewHadoopRDD[0] at newAPIHadoopRDD at test.scala:60) (first 15 tasks are for partitions Vector(0))rn18/05/14 16:26:50 INFO TaskSchedulerImpl: Adding task set 1.0 with 1 tasksrn18/05/14 16:26:50 INFO TaskSetManager: Starting task 0.0 in stage 1.0 (TID 1, 10.124.130.14, executor 2, partition 0, ANY, 4919 bytes)rn18/05/14 16:26:50 INFO BlockManagerInfo: Added broadcast_2_piece0 in memory on 10.124.130.14:54410 (size: 1334.0 B, free: 366.3 MB)rn18/05/14 16:26:51 INFO BlockManagerInfo: Added broadcast_0_piece0 in memory on 10.124.130.14:54410 (size: 29.8 KB, free: 366.3 MB)rn18/05/14 16:26:52 INFO TaskSetManager: Finished task 0.0 in stage 1.0 (TID 1) in 2453 ms on 10.124.130.14 (executor 2) (1/1)rn18/05/14 16:26:52 INFO TaskSchedulerImpl: Removed TaskSet 1.0, whose tasks have all completed, from pool rn18/05/14 16:26:52 INFO DAGScheduler: ResultStage 1 (foreach at test.scala:71) finished in 2.454 srn18/05/14 16:26:52 INFO DAGScheduler: Job 1 finished: foreach at test.scala:71, took 2.469872 srnrnrn红色字体是HBASE表的总行数,但是下面的foreach没有任何<em>数据</em>打印出来,查了好几天了没找到问题所在rn请大神赐教
怎样才能做到随机不重复的抽取数据??????????????????
我使用了一个<em>随机</em>函数,但是<em>随机</em>出来的<em>数据</em>有的是重复的,我想<em>随机</em>出不重复的<em>数据</em>,比如:从0到9的10个<em>数据</em>中<em>随机</em>抽出3个,而且这3个数不能重复,用C#代码怎么写呀??????rn
JAVA能做到的,C++能做到吗?
谢谢
串口MSComm分析读取数据问题,没人能解决么
<em>数据</em>能读出,从汽车衡的磅机上(上海耀华XK3190-A9),磅机232口发出10位的ascii<em>数据</em>,1位起始(02),10位结束(03),我现在打开端口,showmessage(mscomm.input),显示的是乱码汉字,关闭在打开几次能显示正确的<em>数据</em>类似+1234563E的<em>数据</em>,起始位置是02,是不是mscomm控件<em>读取</em>得<em>数据</em>不是开始从起始位置开始<em>读取</em>得,怎么做才能showmessage出正确的<em>数据</em>?rnrn每次从input里面读出的<em>数据</em>都不是完整的一组<em>数据</em>,rn我在一个timer事件里面,rntemp1:=mscomm1.input;rn把input的内容缓冲到temp1变量里面rn然后我再rnif copy(temp1,1,1)=chr(02) then ...rnelse temp1:=delete(temp1,1)rn这样先从缓冲里面一个字符一个字符的<em>读取</em>分析,删除,希望最终copy(temp1,1,1)=chr(02)了,再从temp1中按照磅机协议中,整组的<em>读取</em><em>数据</em>rn我这个思路对么,我以前没做过串口,水平很底,rn给些完整可用的代码把rn前天的帖子如下rnhttp://community.csdn.net/Expert/topic/4754/4754953.xml?temp=.7842218
随机读取
比如我有以下两个rn1,doc.Load(@"https://maps.googleapis.com/maps/api/place/search/xml?location=" + oldLat + "," + oldLng + "&radius=300&language=zh-CN&sensor=false&key=AivaSyewFLMoxwTequy-8ii9k_WJi8cMSwO0Dds");rnrn2,doc.Load(@"https://maps.googleapis.com/maps/api/place/search/xml?location=" + oldLat + "," + oldLng + "&radius=300&language=zh-CN&sensor=false&key=AIzaSyAbYLzxzqJzfwx6AVJx2CPywa2ToND_MSs");rnrn我现在想 调用的时候 是<em>随机</em>的 就是随便调用这两个中的其中一个,每次都是<em>随机</em>抽的,请问该如何实现呢
读取XML中的部分数据
要求:rn顺序<em>读取</em>节以后的所有<em>数据</em>,不过滤其中的回车、换行符,生成一个连续的字符串rnrn
读取combobox中部分数据
例如:combobox.text=XXXXX-XXXXX 其中'-'前后的<em>数据</em>位数都不确定 rn如何得到'-'以前或以后的<em>数据</em>rn
mapreudce 通过读取hbase表删除hbase 数据
package foo.bar.MR; import java.io.IOException; import java.util.ArrayList; import java.util.List; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.HBaseConfigurat...
c#能读取usb设备的硬件信息么?
c#能<em>读取</em>usb设备的硬件信息么?主要包括:rn1、是否有设备连接到usb;rn2、usb盘符(例如插上u盘得到他的盘符“H:”)rn3、读出usb的硬件信息,例如u盘的芯片,或者闪存相关信息。rnrn谢谢!~
合并复制 能做到数据实时同步吗?
环境:windows2003, sql server 2000 sp4rn设置:合并复制,强制订阅。发布/分发在一台机器上,订阅在另一台。rn 分发代理程序应何时更新订阅内容:选择了“连续地”rnrn我每次无论是插入/删除/修改一个DB table内容,总要等上40秒左右才能更新到另一个DB tablernrn请问合并复制能<em>做到</em>[b]实时[/b]的<em>数据</em>同步吗?还是我还没有设置正确?谢谢
spark 读取hbase数据并转化为dataFrame
spark 的应用原来越广泛,而且hbase的最新代码也开始加入了hbase-spark模块,但是发行版本并未提供spark api。为了方面程序处理,故写了一个demo。 用于处理spark中获取hbase的<em>数据</em>,并将获取到的<em>数据</em>转化为dataframe
spark读取不了hbase中的数据
最近开始了spark的学习,在spark<em>读取</em>hbase中的<em>数据</em>这一阶段,却出现了异常,百度了很久,都无法搞定,我用的IDE是eclipse,scala的版本是2.11.6,hbase的版本是1.2.6,spark的版本是2.1.0,hadoop的版本是2.7.3(测试用),zookeeper我没有用自带的,用的是3.4.6的版本的,单独用hbase-shell曾删改查<em>数据</em>都没有问题。相应的jar包我也从hbase中的jar添加到了spark的工程当中去。我的机子是伪分布式的,只有一台电脑,hadoop和spark都是伪分布的。代码如下:rnobject Test rn def main(args: Array[String]) rn val conf = HBaseConfiguration.create();rn conf.set("hbase.zookeeper.quorum", "192.168.0.102")rn conf.set("hbase.zookeeper.property.clientPort", "2181") rn val sc = new SparkContext(new SparkConf().setMaster("local").setAppName("<em>Hbase</em>-test"))rn conf.set(TableInputFormat.INPUT_TABLE, "student")rn val stuRDD = sc.newAPIHadoopRDD(conf, classOf[TableInputFormat], classOf[org.apache.hadoop.hbase.io.ImmutableBytesrn Writable], classOf[org.apache.hadoop.hbase.client.Result])rn val count = stuRDD.count()rn println("Students RDD Count:"+count)rn stuRDD.cache()rn stuRDD.foreach(case(_,result) => val key = Bytes.toString(result.getRow)rn val name = Bytes.toString(result.getValue("info".getBytes, "name".getBytes))rn val gender = Bytes.toString(result.getValue("info".getBytes,"gender".getBytes))rn val age = Bytes.toString(result.getValue("info".getBytes, "age".getBytes))rn println("Row Key:"+key+" Name:"+name+" Gender:"+gender+" Age:"+age)rn )rn rn rnrnrn相关异常如下:rnrn省略一<em>部分</em>无关的,起初我觉得是我zookeeper配置出了问题,我尝试用了hbase自带的zookeeper,错误还是一样。rnrnrn17/11/03 14:30:29 INFO ZooKeeper: Initiating client connection, connectString=192.168.0.102:2181 sessionTimeout=90000 watcher=hconnection-0x5c089b2f0x0, quorum=192.168.0.102:2181, baseZNode=/hbasern17/11/03 14:30:29 INFO ClientCnxn: Opening socket connection to server bigdata3/192.168.0.102:2181. Will not attempt to authenticate using SASL (unknown error)rn17/11/03 14:30:29 INFO ClientCnxn: Socket connection established to bigdata3/192.168.0.102:2181, initiating sessionrn17/11/03 14:30:29 INFO ClientCnxn: Session establishment complete on server bigdata3/192.168.0.102:2181, sessionid = 0x15f807724d60007, negotiated timeout = 40000rn17/11/03 14:30:29 INFO RegionSizeCalculator: Calculating region sizes for table "student".rn17/11/03 14:31:07 INFO RpcRetryingCaller: Call exception, tries=10, retries=35, started=38458 ms ago, cancelled=false, msg=row 'student,,00000000000000' on table 'hbase:meta' at region=hbase:meta,,1.1588230740, hostname=bigdata3,16201,1509688846997, seqNum=0rn17/11/03 14:31:17 INFO RpcRetryingCaller: Call exception, tries=11, retries=35, started=48531 ms ago, cancelled=false, msg=row 'student,,00000000000000' on table 'hbase:meta' at region=hbase:meta,,1.1588230740, hostname=bigdata3,16201,1509688846997, seqNum=0rn17/11/03 14:31:17 INFO ConnectionManager$HConnectionImplementation: Closing zookeeper sessionid=0x15f807724d60007rn17/11/03 14:31:17 INFO ZooKeeper: Session: 0x15f807724d60007 closedrn17/11/03 14:31:17 INFO ClientCnxn: EventThread shut downrnException in thread "main" org.apache.hadoop.hbase.client.RetriesExhaustedException: Failed after attempts=36, exceptions:rnFri Nov 03 14:31:17 CST 2017, null, java.net.SocketTimeoutException: callTimeout=60000, callDuration=68712: row 'student,,00000000000000' on table 'hbase:meta' at region=hbase:meta,,1.1588230740, hostname=bigdata3,16201,1509688846997, seqNum=0rnrn at org.apache.hadoop.hbase.client.RpcRetryingCallerWithReadReplicas.throwEnrichedException(RpcRetryingCallerWithReadReplicas.java:276)rn at org.apache.hadoop.hbase.client.ScannerCallableWithReplicas.call(ScannerCallableWithReplicas.java:210)rn at org.apache.hadoop.hbase.client.ScannerCallableWithReplicas.call(ScannerCallableWithReplicas.java:60)rn at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithoutRetries(RpcRetryingCaller.java:210)rn at org.apache.hadoop.hbase.client.ClientScanner.call(ClientScanner.java:327)rn at org.apache.hadoop.hbase.client.ClientScanner.nextScanner(ClientScanner.java:302)rn at org.apache.hadoop.hbase.client.ClientScanner.initializeScannerInConstruction(ClientScanner.java:167)rn at org.apache.hadoop.hbase.client.ClientScanner.(ClientScanner.java:162)rn at org.apache.hadoop.hbase.client.HTable.getScanner(HTable.java:797)rn at org.apache.hadoop.hbase.client.MetaScanner.metaScan(MetaScanner.java:193)rn at org.apache.hadoop.hbase.client.MetaScanner.metaScan(MetaScanner.java:89)rn at org.apache.hadoop.hbase.client.MetaScanner.allTableRegions(MetaScanner.java:324)rn at org.apache.hadoop.hbase.client.HRegionLocator.getAllRegionLocations(HRegionLocator.java:89)rn at org.apache.hadoop.hbase.util.RegionSizeCalculator.init(RegionSizeCalculator.java:94)rn at org.apache.hadoop.hbase.util.RegionSizeCalculator.(RegionSizeCalculator.java:81)rn at org.apache.hadoop.hbase.mapreduce.TableInputFormatBase.getSplits(TableInputFormatBase.java:256)rn at org.apache.hadoop.hbase.mapreduce.TableInputFormat.getSplits(TableInputFormat.java:239)rn at org.apache.spark.rdd.NewHadoopRDD.getPartitions(NewHadoopRDD.scala:125)rn at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:252)rn at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:250)rn at scala.Option.getOrElse(Option.scala:121)rn at org.apache.spark.rdd.RDD.partitions(RDD.scala:250)rn at org.apache.spark.SparkContext.runJob(SparkContext.scala:1958)rn at org.apache.spark.rdd.RDD.count(RDD.scala:1157)rn at MySecond.package1.Test$.main(Test.scala:22)rn at MySecond.package1.Test.main(Test.scala)rnCaused by: java.net.SocketTimeoutException: callTimeout=60000, callDuration=68712: row 'student,,00000000000000' on table 'hbase:meta' at region=hbase:meta,,1.1588230740, hostname=bigdata3,16201,1509688846997, seqNum=0rn at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithRetries(RpcRetryingCaller.java:169)rn at org.apache.hadoop.hbase.client.ResultBoundedCompletionService$QueueingFuture.run(ResultBoundedCompletionService.java:65)rn at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)rn at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)rn at java.lang.Thread.run(Thread.java:745)rnCaused by: java.io.IOException: com.google.protobuf.ServiceException: java.lang.NoClassDefFoundError: com/yammer/metrics/core/Gaugern at org.apache.hadoop.hbase.protobuf.ProtobufUtil.getRemoteException(ProtobufUtil.java:332)rn at org.apache.hadoop.hbase.client.ScannerCallable.openScanner(ScannerCallable.java:408)rn at org.apache.hadoop.hbase.client.ScannerCallable.call(ScannerCallable.java:204)rn at org.apache.hadoop.hbase.client.ScannerCallable.call(ScannerCallable.java:65)rn at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithoutRetries(RpcRetryingCaller.java:210)rn at org.apache.hadoop.hbase.client.ScannerCallableWithReplicas$RetryingRPC.call(ScannerCallableWithReplicas.java:364)rn at org.apache.hadoop.hbase.client.ScannerCallableWithReplicas$RetryingRPC.call(ScannerCallableWithReplicas.java:338)rn at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithRetries(RpcRetryingCaller.java:136)rn ... 4 morernCaused by: com.google.protobuf.ServiceException: java.lang.NoClassDefFoundError: com/yammer/metrics/core/Gaugern at org.apache.hadoop.hbase.ipc.AbstractRpcClient.callBlockingMethod(AbstractRpcClient.java:240)rn at org.apache.hadoop.hbase.ipc.AbstractRpcClient$BlockingRpcChannelImplementation.callBlockingMethod(AbstractRpcClient.java:336)rn at org.apache.hadoop.hbase.protobuf.generated.ClientProtos$ClientService$BlockingStub.scan(ClientProtos.java:34094)rn at org.apache.hadoop.hbase.client.ScannerCallable.openScanner(ScannerCallable.java:400)rn ... 10 morernCaused by: java.lang.NoClassDefFoundError: com/yammer/metrics/core/Gaugern at org.apache.hadoop.hbase.ipc.AbstractRpcClient.callBlockingMethod(AbstractRpcClient.java:225)rn ... 13 morernCaused by: java.lang.ClassNotFoundException: com.yammer.metrics.core.Gaugern at java.net.URLClassLoader.findClass(URLClassLoader.java:381)rn at java.lang.ClassLoader.loadClass(ClassLoader.java:424)rn at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)rn at java.lang.ClassLoader.loadClass(ClassLoader.java:357)rn ... 14 morern17/11/03 14:31:17 INFO SparkContext: Invoking stop() from shutdown hookrn17/11/03 14:31:17 INFO SparkUI: Stopped Spark web UI at http://192.168.0.102:4040rn17/11/03 14:31:17 INFO MapOutputTrackerMasterEndpoint: MapOutputTrackerMasterEndpoint stopped!rn17/11/03 14:31:17 INFO MemoryStore: MemoryStore clearedrn17/11/03 14:31:17 INFO BlockManager: BlockManager stoppedrn17/11/03 14:31:17 INFO BlockManagerMaster: BlockManagerMaster stoppedrn17/11/03 14:31:17 INFO OutputCommitCoordinator$OutputCommitCoordinatorEndpoint: OutputCommitCoordinator stopped!rn17/11/03 14:31:17 INFO SparkContext: Successfully stopped SparkContextrn17/11/03 14:31:17 INFO ShutdownHookManager: Shutdown hook calledrn17/11/03 14:31:17 INFO ShutdownHookManager: Deleting directory /tmp/spark-a7296cf1-3122-4cfa-9438-1fbb775c3a48rn
spark-sql读取映射hbase数据的hive外部表
之前在业务处理中建立的一个hive映射hbase<em>数据</em>的外部表,通过hive查询成功,但是通过spark-sql去查询报了如下错误:Error: java.lang.RuntimeException: org.apache.hadoop.hive.ql.metadata.HiveException: Error in loading storage handler.org.apache.hadoop.
elasticsearch 是怎么读取Hbase里面数据
elasticsearch 是怎么<em>读取</em><em>Hbase</em><em>数据</em>。
Spark读取hbase表中数据
pom.xml &amp;lt;dependency&amp;gt; &amp;lt;groupId&amp;gt;org.springframework.data&amp;lt;/groupId&amp;gt; &amp;lt;artifactId&amp;gt;spring-data-hadoop&amp;lt;/artifactId&amp;gt; &amp;lt;version&amp;gt;2.0.2.RELEASE&amp;lt;/version&amp;gt; &a
python利用thrift服务读取hbase数据
因工作需要用python通过hbase的thrift服务<em>读取</em><em>Hbase</em>表<em>数据</em>,发现公司的测试环境还不支持,于是自己动手准备环境,在此我将在安装步骤尽可能描述清楚,旨在给第一次动手安装的朋友,此过程亲测成功!      安装过程如下: 1.首先确保hbase安装测试成功,再者确认下hbase的thrift服务是否启动,注意目前的<em>Hbase</em>(本文基于版本0.98.17)有两套thrift接口t
使用MapReduce读取Hbase数据到本地磁盘
本文主要讲述<em>读取</em>hbase<em>数据</em>到本地磁盘,且仅一个分区文件,若想一次输出多个分区文件,参考本文上篇文章: https://blog.csdn.net/weixin_43345864/article/details/84889874 代码如下: 注意Hadoop版本问题: pom.xml如下 &amp;amp;lt;build&amp;amp;gt; &amp;amp;lt;plugins&amp;amp;gt; &amp;amp;lt;...
hbase sheel java读取多版本数据
代码详情按照这篇文章:http://blog.csdn.net/wind520/article/details/39344805rnjar版本rn[img=https://img-bbs.csdn.net/upload/201703/14/1489458580_451373.png][/img],rnrn最终只能<em>读取</em>到最新版本的<em>数据</em>,在shell中的确是能查询多个版本的,现在不清楚是哪里的问题,求大神指教
如何使用Spark/Scala读取Hbase数据
必须使用高亮参数启动Spark-shell,否则当你遍历RDD时会出现如下的Exception java.io.NotSerializableException: org.apache.hadoop.hbase.io.ImmutableBytesWritable   spark-shell --conf spark.serializer=org.apache.spark.serializ...
Spark 读取HBase数据进行分析的疑问
我的HBase库中有个表 一亿行<em>数据</em>,我想全部扔给Spark,形成Spark的Rdd,然后使用Spark sql,对<em>数据</em>经常查询操作.有没有好的办法,哪位专家给指点下,万分感谢。
spark 读取Hbase数据直接生成rdd
package com.lenovo.hbaseToMysql import java.util.Properties import com.lenovo.Utils.MysqlSession import org.apache.hadoop.hbase.HBaseConfiguration import org.apache.hadoop.hbase.client._ import org....
Spark如何读取Hbase特定查询的数据
最近工作需要使用到Spark操作<em>Hbase</em>,上篇文章已经写了如何使用Spark读写<em>Hbase</em>全量表的<em>数据</em>做处理,但这次有所不同,这次的需求是Scan特定的<em>Hbase</em>的<em>数据</em>然后转换成RDD做后续处理,简单的使用Google查询了一下,发现实现方式还是比较简单的,用的还是<em>Hbase</em>的TableInputFormat相关的API。  基础软件版本如下:  Java代码  
Hbase部分常用的封装类
package com.sxt.hbase; import java.io.IOException; import java.util.ArrayList; import java.util.List; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.Cell; import org.apach...
HBASE部分:hbase部分代码 【Java版纯代码】
hbase<em>部分</em>代码  package com.sxt.hbasedemo; import java.text.SimpleDateFormat; import java.util.ArrayList; import java.util.List; import java.util.Random; import org.apache.hadoop.hbase.Cell; import or...
HBASE部分:HBASE中的表设计
HBase中表的设计 主要是将原来的关系解开 问题: 例子: 表设计一:  表设计二:  这是一个双向查询,根据人员查角色,根据角色查人员  问题: 0为顶级部门,1为子部门 放到一张表中不会对效率产生影响,因为HBASE是海量存储,海量读写的。  Redis是一个内存<em>数据</em>库,新浪微博是使用Redis用的最好的一家公司 Redis可以持久化到本地,可以...
oracle sql 随机读取N条数据
  关键字:order by dbms_random.value   以下是几个不同的<em>数据</em>库<em>随机</em>取<em>数据</em>的sql   1、MySql   Select * From TABLE Order By Rand() Limit N  2、SQL Server Select TOP N * From TABLE Order By NewID()  NewID()函数将创...
HBase的优化部分:HBase创建表的优化
1. 表的设计 1.1 Pre-Creating Regions 默认情况下,在创建HBase表的时候会自动创建一个region分区,当导入<em>数据</em>的时候,所有的HBase客户端都向这一个region写<em>数据</em>,直到这个region足够大了才进行切分。一种可以加快批量写入速度的方法是通过预先创建一些空的regions,这样当<em>数据</em>写入HBase时,会按照region分区情况,在集群内做<em>数据</em>的负载均衡。 ...
随机读取N条数据数据
在做开发的时候,有时候由于需求的需要,我们需要<em>随机</em>从<em>数据</em>库表中<em>随机</em><em>读取</em>一定量的<em>数据</em>,那么在不同的主流<em>数据</em>库中是如何操作的呢,请看下面的代码。 Access<em>数据</em>库: SELECT top n * FROM T_Table ORDER BY rnd(id); --id为<em>数据</em>库的自动编号字段 MySQL<em>数据</em>库: SELECT * FROM T_Table ORDER BY rand()
EF中读取随机数据的问题
我想用EF从<em>数据</em>库根据级别<em>读取</em>10条<em>随机</em>的<em>数据</em>,就是用EF怎么写<em>随机</em>
如何随机读取数据库中的数据?
我现在在做一套网上考试系统,需要<em>随机</em><em>读取</em>100条记录,制成考卷.rn请达人指点下!哦,对我的<em>数据</em>库是ACCESS
MYSQL随机读取N条数据
 SELECT * FROM `hr_employee` order By rand() Limit N;
随机读取Access数据记录的奇怪问题
我需要<em>随机</em>从Access<em>数据</em>库中<em>读取</em>一定数量的记录,SQL 语句如下:rn[code=SQL]Select top 40 * from Questions order by rnd(712 - QID)[/code]rn其中712是<em>随机</em>生成的三位数rnrn我将SQL语句放在Access的查询中执行,随着<em>随机</em>数的不同能成功<em>读取</em>到<em>随机</em>记录,但通过代码<em>读取</em>到的记录确总是一样的rnrn<em>读取</em>代码如下:rn[code=C#]public static DataSet ExeSql(string sql, string table)rn rn using (OleDbConnection connStr = SQL.DBConn())rn rn DataSet ds = new DataSet();rn tryrn rn connStr.Open();rn OleDbCommand cmd = new OleDbCommand(sql, connStr);rn cmd.ExecuteScalar();rn OleDbDataAdapter da = new OleDbDataAdapter(cmd);rn da.SelectCommand = cmd;rn da.FillSchema(ds, SchemaType.Source);rn da.Fill(ds, table);rn connStr.Close();rn rn catch (OleDbException ee)rn rn string mm = ee.Message;rn rn return ds;rn rn [/code]rn
DaraGrid如何随机读取数据数据
我想要用DataGrid每次载入时<em>随机</em><em>读取</em><em>数据</em>库n条记录中的10条记录,记录不能重复。我要如何实现呢?rn请高手们不吝赐教...希望带上实现的代码,谢谢`````
在OUTLOOK编程中,能做到这种效果么?
我做OUTLOOK插件,想做一个类似于EMAIL FOLDER的东西,就是个人文件夹,树型列表管理,但是我不想做在OUTLOOK提供的文件夹里面,我想<em>做到</em>和OUTLOOK的顶层个人文件夹同级,而不是其子文件夹。请教各位,这种效果能否达到呢?rn
IWebBrowser2 的指针,能指向一个iframe么?怎么做到
想要在iframe中读写元素 跟在网页中<em>读取</em>一摸一样,以便实现代码的较高可重用性。
请问能做到吗?
我想把本机的一个<em>数据</em>库备份文件恢复到另一台计算机上,要求<em>数据</em>库文件要放到<em>数据</em>库服务器所在的机器上,而我所能知道的仅仅是<em>数据</em>库服务器的名字,请问:使用sql 语句能<em>做到</em>吗。rn如:我的机器上有一个<em>数据</em>库备份文件叫 mydata.bak,里面包含了<em>数据</em>文件和log文件,我想在一个名叫dataserver的<em>数据</em>库服务器上建一个叫mydata的<em>数据</em>库,然后使用mydata.bak 恢复这个<em>数据</em>库(能一步完成也行),而且mydata <em>数据</em>库文件必须放在dataserver所在的计算机上(机器名称不知道,ip地址不知道),请问使用sql语句能不能<em>做到</em>,如果能<em>做到</em>怎么做?谢谢。rnrnps: <em>数据</em>库系统为sql server7.0或2000rn
菜鸟提问:SQL语句能做到么?(查询条件有点特殊)
查询后显示到datagridview中,查询条件:某一字段的值的长度应该在两个值之间(比如0~5..也就是字段值的.Length, textBox2.Text);rnrn SqlDataAdapter ada = new SqlDataAdapter(cmd);rn DataSet ds = new DataSet();rn ada.Fill(ds);rn this.dataGridView1.DataSource = ds.Tables[0];rn[/code]
请问一下这个问题循环能做到么。
有如下的<em>数据</em>:rnOrderNOrn-------rnA0001rnA0001rnA0001rnB0001rnB0001rn...rn其实我想的到的效果是:rnpOrderNO=‘A0001,B0001’ 而不是 ‘A0001,A0001,A0001,B0001,B0001。’
表删除,不产生日志!能做到么?
作删除表操作时,不想让其产生日志,可以<em>做到</em>么/rn我感觉,只有在创建表时,才不会产生日志的呀?rn迷惑~!
这样能做到吗???
$row=mysql_fetch_row($r)//rn如果取值输出的是第一条<em>数据</em>是1,第二条<em>数据</em>是2,那么我想把他们(1,2)一起加入另一个表中,请教程序怎么写??必须符合这样的sql语句是"INSERT INTO sss (aa,bb) VALUES('1','2');
做到的说说方法
像DataGrid的分页功能,rn像Repeater可以定制事件,<em>做到</em>在单击时处理onclick事件。
usb-key能做到吗?
问题描述:rn有一明文文件,rn甲方用预定义的密码进行加密,rn乙方用同样的密码进行解密rn利用的开源库进行加解密,因usb-key不支持客户要求的加密算法rn现有usb-key,能否利用它存储解密用的密匙呢?rnrnrn
VB能做到吗?
我在一个TextBox中有中国两个字,要求把中字用巨大红色字体显示出来,国字用普通的蓝色字体显示,能办到吗?
这里有多少人能做到
谁能在7天内解开下面的密码rnrn我心我情---RSA加密rnN = 184443413869663888691034038304755681177355635502637276980rn0650884338514359666524532761384281857536860880428003rnE = 65537rnText1^E=184443413869663888691034038304755681177355635502637276rn9800650884338514359666524532761384281857536860880428003 (mod N)rnText2^E=179853919258703115633022189489271120059490032326856212rn6175023085148250605817763888337032229137077656392589941 (mod N)rnText3^E=277405476136386833357586047831761825862596434110230936rn593877399943428220212190844966480640999798250093325297 (mod N)rnText4^E=253079287992399837910697625290463487740125091931420744rn547567041263130491407636790674249776098840705092513389 (mod N)rnrn解开的去下面地址帖结果rnhttp://bbs.emath.ac.cn/viewthread.php?tid=603&page=1&extra=#pid7470
怎么样能做到
我现在的系统是win2000server,能不能不丢失硬盘<em>数据</em>把FAT32格式转换成NTFS?
动态获得字符串化的对象实例名,能做到么?
就是这样的:rnvar inst = new Object();rn后rn我想动态获得一个inst的变量名字符串,即"inst"rnJS支持这么做么?rn感觉脚本语言通过查找内部的符号名表,应该能实现,不知道JS可行?rn谢谢!
VS2005能做到让生成的文件自动增加版本号么?
我用的是VS2005中的VC++rnrn能不能在工程输出的exe或是dll中自动增加版本信息,build一次,版本号加1 ?rnrn能么?
读取HDFS写入HBase
import java.io.BufferedReader; import java.io.IOException; import java.io.InputStreamReader; import java.net.URI; import java.net.URISyntaxException; import java.util.ArrayList; import java.util.HashM...
HBase读取与写入流程
写入流程 WAL(日志文件)、MemStore(内存) MemStore flush到HFile 参考LSM Tree流程:https://www.cnblogs.com/yanghuahui/p/3483754.html 写性能优化 <em>读取</em>流程 读性能优化 可参考:https://yq.aliyun.com/articles/670748?sp...
HBase插入和读取图片
把图片添加到HBase中需要先转变为二进制数组,<em>读取</em>时再转变回来。 图片的插入: Configuration configuration = HBaseConfiguration.create(); configuration.set(&quot;hbase.zookeeper.quorum&quot;, &quot;Master,Slave1,Slave2&quot;); HTable table = new HTable(co...
asp能做到嘛?
在asp里能不能动态的上传图片?rn
javascipt 能做到
至少有三个图片,然后左自右游动,鼠标放在哪一张图上,该图就静止,并且在图下方出现说明,点击就是放大图,图下依然有说明,说明的文字都是以向上滚动消失的形式出现
做到吗?
程序要达到这样一个效果:在应用程序中,有一个工具栏,上面有若干控件,点击某个控件后,可以拖放到视图里,然后可以随时改变位置,并能更改属性,谁能<em>做到</em>,有源程序吗
cuda能做到什么
我看了一些cuda的资料,最有用的是处理矩阵和循环。cuda还可以<em>做到</em>什么?(比如一段封装好的代码,可以吗)
怎么样能做到多选?
rnrn rn rn rn rnrn rnrnrn rn rn rn rn rn rn rn rn rn rn rn rn ¿ÉÑ¡±êÇ© rn rn ²âÊÔ1rn ²âÊÔ2rn ²âÊÔ3rn ²âÊÔ4rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn ÒÑÑ¡±êÇ© rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rn rnrnrnrnrn我上面的代码.怎么能实现从左到右能多选。而不是只有一个.谢谢.
这样能做到防注入?
[code=php]rnfunction defend_xss($val)rn return is_array($val) ? $val : htmlspecialchars($val);rnrnrnfunction gpc($name,$w = 'GPC',$default = '',$d_xss=1)rn global $curr_script;rn if($curr_script==ADMINCP)rn $d_xss = 0;rn rn $i = 0;rn for($i = 0; $i < strlen($w); $i++) rn if($w[$i] == 'G' && isset($_GET[$name])) return $d_xss ? defend_xss($_GET[$name]) : $_GET[$name];rn if($w[$i] == 'P' && isset($_POST[$name])) return $d_xss ? defend_xss($_POST[$name]) : $_POST[$name];rn if($w[$i] == 'C' && isset($_COOKIE[$name])) return $d_xss ? defend_xss($_COOKIE[$name]) : $_COOKIE[$name];rn rn return $default;rnrn[/code]rnrn[code=php]rnresult_first("select userid from user where username='$test'");rn....以下代码省略rn?>rn[/code]rnrn能<em>做到</em>防注入吗
pb能做到吗???
我的<em>数据</em>库是oracle8。17,我可以在oracle自带的工具sqlplus中执行truncate table 表1,truncate table 表2,这样的语法来删除表1及表2中的<em>数据</em>,可现在我做了一个名为“清<em>数据</em>的”菜单,它的功能要与在sqlplus中执行truncate table 表1;truncate table 表2;中的效果一样,那么这个菜单中的代码该怎样写?????????rn给出具体代码马上给分!!!!!!!!!!!!!!!11
JS能做到
asp.net 我现在页面上有一个DROPDOWN的HTML控件和上传控件,和一个WEB的TEXTBOX控件,一个BUTTON控件。rn当我触发TEXTBOX的CAHANG事件后,从服务器端取一个值,返回页面的时候我要DROPDOWN和上传控件的值不会改变,而且DROPDOWN控件要怎么负值。(我用过HIDDEN控件,如果你们也用这个方法,能不能给点代码和思路)rn请高手们帮助解决一下,搞了好些天了,也没有做出来。rn
做到
姓名 单位 类型 数量rnAA G F 50rnAA D E 40rnAA D E 30rnFF G D 40rnrn姓名 单位 类型 数量 姓名 单位 类型 数量rnAA G E 50 AA D E 70rnFF G D 40
你能做到吗?
有一对话框,对话框上有两个按钮Button1,Button2rnCMyDlg::OnButton1Click()rnrn ...rnrn 中途挂起rn rn ...rnrnrn按下Button1后,能在中途挂起等待,使系统能接受其它事件的输入(即用户能按下Button2)rn我的意思是:即在执行函数的中途,如何接受其它事件的输入?rn
○这个能做到吗?
把一个DataTable 在DataGrid中显示。rn在没有使用DataView过滤条件的情况下:rnrn能否知道 DataTable 中的某行是否对应到 DataGrid中的哪一行???rnrnrn有过滤的情况下呢?????(这个重要)rnrn
有趣的问题: 手能做到的, 程序也能做到吗?
在程序中,怎样控制鼠标或者键盘来操作Windows?rnrn比如,用某段代码移动鼠标到"开始"按钮并点击左键?rnrn或者用程序控制按下某个热键?rnrn一切要和用手来操作一样, 手能<em>做到</em>的, 程序也能<em>做到</em>, 可以实现吗?rnrn请朋友们各抒己见!分不够还可以再加.
ASP.NET中能做到全局对象么?
比如,我在A页面生成一个对象Object。它有很多自有的成员变量,方法、属性等。rn当我换到另一个页面后,甚至跨越很多个页面后,能不再重新生成它继续使用么?rn比如我在页面Z不需要在生成一个同类的Object,我就可以直接使用Object.Function()?rnrn现在能实现么?
这种想法能实现么(数据提取)
详细情况是这样:rnrn我公司是有一台分析不锈钢成分的设备,该设备有附带软件,rn现需要将分析后的<em>部分</em><em>数据</em>提取出来,我现在的做法是:rn选中要提取的<em>数据</em>按Ctrl+C,然后再在按Ctrl+V粘贴到cxgrid表格里,rnrn有没有更简单的方法,rnrn如选中要提取的<em>数据</em>后自动将<em>数据</em>粘贴到相应的cxgrid表格里。rnrn
剪切板的数据能存到数据库中么??
我将文本或图片读到剪切板了,能将这个<em>数据</em>存到<em>数据</em>库中的某个字段中么?最好能存图片。rn具体怎么写啊?求大家帮帮忙!!!rn
echarts数据中间的间隔能去掉么
[img=https://img-bbs.csdn.net/upload/201702/14/1487053449_759410.png][/img]rn现在的情况就是图表中这种,中间隔了很大的空间,我想着能不能把这个空间缩小一些或者去掉?
软考网络工程师课件解析下载
1 网络安全概述 1.1网络安全的目标 可靠性、可用性、真实性、保密性、完整性、不可抵赖性 1.2网络安全威胁的主要类型 内部窃密和破坏、窃听和截收、非法访问、破坏信息的完整性、冒充、流量分析攻击、其他威胁 网络攻击的主要手段 窃听、数据篡改、盗用口令攻击、中间人攻击、缓冲区溢出攻击、后门攻击、欺骗攻击、Dos、野蛮攻击、SQL注入、计算机病毒攻击、特洛伊木马 1.3网络安全机制与技术 数据加密机制、访问控制机制、数据完整性机制、鉴别机制、流量填充机制、路由控制机制、防火墙、入侵检测 相关下载链接:[url=//download.csdn.net/download/lin8090789/2168376?utm_source=bbsseo]//download.csdn.net/download/lin8090789/2168376?utm_source=bbsseo[/url]
Computational Science and Engineering part 3下载
Computational Science and Engineering mit 18.085的教材 part 3 相关下载链接:[url=//download.csdn.net/download/cock_puncher/2227831?utm_source=bbsseo]//download.csdn.net/download/cock_puncher/2227831?utm_source=bbsseo[/url]
FTP处理的API下载
FTP文件的API,可以取得,保存 相关下载链接:[url=//download.csdn.net/download/hugeweiwei/8463195?utm_source=bbsseo]//download.csdn.net/download/hugeweiwei/8463195?utm_source=bbsseo[/url]
相关热词 c# 标准差 计算 c#siki第五季 c#入门推荐书 c# 解码海康数据流 c# xml的遍历循环 c# 取 查看源码没有的 c#解决高并发 委托 c#日期转化为字符串 c# 显示问号 c# 字典对象池
我们是很有底线的