数据窗口中统计出满足条件且排除重复记录 条数

不穿内裤的超人 2017-11-25 04:28:27

如图所示,报表中分类这一列有两种状态,一种是手术,一种是非手术
我要统计当分类=手术 的时候,分组名称不重复的有多少组
总的合计分组是已经写出语句了: '合计分组:'+count( compute_0003 for all distinct)

加条件来进行分组我也写了,但是貌似没用:
'其中手术'+if( compute_0005 ='手术',count(compute_0003 for all distinct),0) +'组'
'其中非手术'+if( compute_0005 ='非手术',count(compute_0003 for all distinct),0) +'组'

求大神看看是那里不对
...全文
601 8 打赏 收藏 转发到动态 举报
写回复
用AI写文章
8 条回复
切换为时间正序
请发表友善的回复…
发表回复
ashinhao 2017-12-07
  • 打赏
  • 举报
回复
引用 6 楼 qq_18219519 的回复:
引用 5 楼 ashinhao 的回复:
[quote=引用 3 楼 qq_18219519 的回复:] [quote=引用 1 楼 acen_chen 的回复:] sum(if(compute_0005 ='手术',1,0))
一个条件的时候确实是这样的,但是我这是两个条件,你这个写法我会的,多条件的时候怎么写就不会了
一样的呀 if( 条件,1,0 ) 条件那里可以多个条件用and连接在一起[/quote]问题不是要变成1,而是要把compute_0003的值提取出来,然后去重后count条数。[/quote] 外面用的是sum 也就符合条件的计1 不符合的计0 这样的 最后sum出来的数 就是根据条件count出来的结果
  • 打赏
  • 举报
回复
引用 5 楼 ashinhao 的回复:
引用 3 楼 qq_18219519 的回复:
[quote=引用 1 楼 acen_chen 的回复:] sum(if(compute_0005 ='手术',1,0))
一个条件的时候确实是这样的,但是我这是两个条件,你这个写法我会的,多条件的时候怎么写就不会了
一样的呀 if( 条件,1,0 ) 条件那里可以多个条件用and连接在一起[/quote]问题不是要变成1,而是要把compute_0003的值提取出来,然后去重后count条数。
acen_chen 2017-12-06
  • 打赏
  • 举报
回复
你的sql是怎样的,取数规则是怎样的。。。
ashinhao 2017-12-05
  • 打赏
  • 举报
回复
引用 3 楼 qq_18219519 的回复:
引用 1 楼 acen_chen 的回复:
sum(if(compute_0005 ='手术',1,0))
一个条件的时候确实是这样的,但是我这是两个条件,你这个写法我会的,多条件的时候怎么写就不会了
一样的呀 if( 条件,1,0 ) 条件那里可以多个条件用and连接在一起
  • 打赏
  • 举报
回复
引用 2 楼 u014246666 的回复:
写一段脚本,for i=1 to dw_1.rowcount() 判断 记录数++ end 求出记录数 ,dw_1.modify( jl.text ='记录数')
我这是报表里面的计算,没法写脚本啊。或者说我木有用过
  • 打赏
  • 举报
回复
引用 1 楼 acen_chen 的回复:
sum(if(compute_0005 ='手术',1,0))
一个条件的时候确实是这样的,但是我这是两个条件,你这个写法我会的,多条件的时候怎么写就不会了
whb00120012 2017-11-30
  • 打赏
  • 举报
回复
写一段脚本,for i=1 to dw_1.rowcount() 判断 记录数++ end 求出记录数 ,dw_1.modify( jl.text ='记录数')
acen_chen 2017-11-28
  • 打赏
  • 举报
回复
sum(if(compute_0005 ='手术',1,0))
在这个科技高速发展的时代,经历了PC时代几乎人手一台电脑,随之衍生站长这个概念;移动互联网时代几乎人手一部智能手机,智能手机一般都会安装很多应用,目前应用呈爆发式的增长;随着产业的不断深入发展,小程序的发展也日益壮大,应用涵盖各个领域;如今一个公司就可能有多个软件应用,对于软件开发商来说,急需一套分析系统帮助软件运营,如果单独开发一个分析系统去针对一个软件进行分析的话,成本会非常的大,这个成本包含开发成本以及以后的维护成本。为了解决了上述的问题,我们开发了一套云产品:亿级动态数据统计分析系统,本系统可以支持所有的终端  (Web端、移动端、小程序端等 )数据统计,只要简单的使用sdk就可以接入我们的系统,软件开发商可以很轻松的对软件使用的情况进行监控,及时辅助公司对该软件的运营。该产品历经2年的实践,商业价值极高。本套案例是完全基于真实的产品进行开发和讲解的,同时对架构进行全面的升级,采用了全新的 Flink 架构+Node.js+Vue.js等,完全符合目前企业级的使用标准。对于本套课程在企业级应用的问题,可以提供全面的指导。Flink作为第四代大数据计算引擎,越来越多的企业在往Flink转换。Flink在功能性、容错性、性能方面都远远超过其他计算框架,兼顾高吞吐和低延时。Flink能够基于同一个Flink运行时,提供支持流处理和批处理两种类型应用的功能。也就是说同时支持流处理和批处理。Flink将流处理和批处理统一起来,也就是说作为流处理看待时输入数据流是无界的;批处理被作为一种特殊的流处理,只是它的输入数据流被定义为有界的。Flink技术特点1. 流处理特性支持高吞吐、低延迟、高性能的流处理支持带有事件时间的窗口(Window)操作支持有状态计算的Exactly-once语义支持高度灵活的窗口(Window)操作,支持基于time、count、session,以及data-driven的窗口操作支持具有Backpressure功能的持续流模型支持基于轻量级分布式快照(Snapshot)实现的容错一个运行时同时支持Batch on Streaming处理和Streaming处理Flink在JVM内部实现了自己的内存管理支持迭代计算支持程序自动优化:避免特定情况下Shuffle、排序等昂贵操作,间结果有必要进行缓存2. API支持对Streaming数据类应用,提供DataStream API对批处理类应用,提供DataSet API(支持Java/Scala)3. Libraries支持支持机器学习(FlinkML)支持图分析(Gelly)支持关系数据处理(Table)支持复杂事件处理(CEP)4. 整合支持支持Flink on YARN支持HDFS支持来自Kafka的输入数据支持Apache HBase支持Hadoop程序支持Tachyon支持ElasticSearch支持RabbitMQ支持Apache Storm支持S3支持XtreemFS课程所涵盖的知识点包括:Flink、 Node.js、 Vue.js、 Kafka、Flume、Spring、SpringMVC、Dubbo、HDFS、Hbase、Highcharts等等  企业一线架构师讲授,代码在老师指导下可以复用,提供企业解决方案。  版权归作者所有,盗版将进行法律维权。   

1,079

社区成员

发帖
与我相关
我的任务
社区描述
PowerBuilder 相关问题讨论
社区管理员
  • 基础类社区
  • WorldMobile
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧