将用SQL查询的结果保存?

fee 2000-01-06 08:18:00
我用SELECT * FROM A ORDER BY NAME 语句查询。
现要求能将结果保存,供其它程序使用,请问应如何设计?
...全文
725 12 打赏 收藏 转发到动态 举报
写回复
用AI写文章
12 条回复
切换为时间正序
请发表友善的回复…
发表回复
yhlong 2000-01-15
  • 打赏
  • 举报
回复
可用"OLE自动化"将sql查询内容传入excel数据表格中由用户自己打印,你如有兴趣我有源代码可贴出.
fstao 2000-01-14
  • 打赏
  • 举报
回复
把“table1.fieldbyname('名次').value:=i;”改为“table1.fieldbyname('名次').AsFloat:=i;”
RobertLubj 2000-01-14
  • 打赏
  • 举报
回复
仿照SQL SERVER 中的BCP命令写一个小程序将文件导出到一个文件中.
其它程序读时再写一个相反的程序即可
jing 2000-01-14
  • 打赏
  • 举报
回复
SELECT * FROM A ORDER BY NAME into newtable
Ray 2000-01-14
  • 打赏
  • 举报
回复 1
不应在循环内使用OPEN方法。把OPEN方法删除后你原来的程序便可正常运行。
snow 2000-01-07
  • 打赏
  • 举报
回复
最好不要固定‘名次’
我是用quickreport
在 qrband1上设qrlabel1 (若qrband1上放其它字段)
qrband1 中beforeprint中
i:=i+1
qrlabel1.caption:=inttostr(i);

kxy 2000-01-07
  • 打赏
  • 举报
回复
给table的名次建一个第二索引
把table的IndexName 设成此索引,它就是按名次排序
fee 2000-01-06
  • 打赏
  • 举报
回复
我想在排好序后,依照顺序给它排个名次。我的思路是先排好后再用以下代码:
i:=1;
table1.First;
while not table1.eof do
begin
table1.open;
table1.edit;
table1.fieldbyname('名次').value:=i;
table1.post;
i:=i+1;
table1.next;
end;
不知错在哪里?
fee 2000-01-06
  • 打赏
  • 举报
回复
我的问题是这样的,我用了query 来排序,table 用来打印它们都有是指向同一个表的
但输出的数据并不是排了序的, 要实现这个功能,除了用临时表外,还用其它办法吗?
kxy 2000-01-06
  • 打赏
  • 举报
回复
SELECT * FROM A ORDER BY NAME 
表的结构没有变,保存什么,其他程序也SELECT * FROM A ORDER BY NAME 不就行了.
如果其他程序不是数据库应用程序,定义好文件结构,其他程序如何读,你就如何写.
while not Query.Eof do
begin
//
写文件的代码
//
Query.Next;
end;
kxy 2000-01-06
  • 打赏
  • 举报
回复
另外建一个表,用于两个程序共享数据.
snow 2000-01-06
  • 打赏
  • 举报
回复
1.用batchmove存入一个表中
2 insert into a_temp from ...
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。Spark 是一种与 Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。Spark 是在 Scala 语言中实现的,它将 Scala 用作其应用程序框架。与 Hadoop 不同,Spark 和 Scala 能够紧密集成,其中的 Scala 可以像操作本地集合对象一样轻松地操作分布式数据集。尽管创建 Spark 是为了支持分布式数据集上的迭代作业,但是实际上它是对 Hadoop 的补充,可以在 Hadoop 文件系统中并行运行。通过名为 Mesos 的第三方集群框架可以支持此行为。Spark 由加州大学伯克利分校 AMP 实验室 (Algorithms, Machines, and People Lab) 开发,可用来构建大型的、低延迟的数据分析应用程序。本部分内容全面涵盖了Spark生态系统的概述及其编程模型,深入内核的研究,Spark on Yarn,Spark RDD、Spark Streaming流式计算原理与实践,Spark SQL,Spark的多语言编程以及SparkR的原理和运行。本套Spark教程不仅面向项目开发人员,甚至对于研究Spark的在校学员,都是非常值得学习的。

5,379

社区成员

发帖
与我相关
我的任务
社区描述
Delphi 开发及应用
社区管理员
  • VCL组件开发及应用社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧