基于OpenCV和QT,建立Android图像处理程序

jsxyhelu2015 2018-01-15 07:19:00
原文地址http://www.cnblogs.com/jsxyhelu/p/8286475.html
一、综述
如何采集图片?在windows环境下,我们可以使用dshow,在linux下,也有ffmpeg等基础类库,再不济,opencv自带的videocapture也是提供了基础的支撑。那么在andoird下,使用的肯定是Android自带的相关函数了。由于Android是基于java语言的,如果我们想要调用Android 的相关函数,那么必须通过JNI的方法。
这里有可以分为两种,一种是直接在java中实现比较完整的函数,在qt中,只需要调用这个函数就可以;另一种就是使用qt自带的jni机制,比如下面这样,打开摄像头,并且采集图片。我们首先介绍第二种方法,让大家最快进入情况。

二、通过JNI打开摄像头
a、填加头文件和命名空间,定义公共变量和宏:
#include <QtAndroid>
#include <QDebug>
#include <QAndroidJniEnvironment>
#include <QAndroidActivityResultReceiver>
#include <QDateTime>
#include <QFile>
using namespace cv;
using namespace QtAndroid;

QString strFetchImage = "";
QString selectedFileName = "";

#define CHECK_EXCEPTION() \
if(env->ExceptionCheck())\
{\
qDebug() << "exception occured";\
env->ExceptionClear();\
}

其中需要注意的是,CHECK_EXCEPTION是用来检查Android系统是否有异常的。这一点在使用JNI的时候非常重要和必要。

b、填加回调类,主要就是在一系列异常判断后,获得imagepath。该类集成自ResultReceiver:
class ResultReceiver: public QAndroidActivityResultReceiver
{
public: ResultReceiver(QString imagePath, QLabel *view) : m_imagePath(imagePath), m_imageView(view){}
void handleActivityResult(int receiverRequestCode,int resultCode,const QAndroidJniObject & data){
qDebug() << "handleActivityResult, requestCode - " << receiverRequestCode<< " resultCode - " << resultCode<< " data - " << data.toString();
if(resultCode == -1 && receiverRequestCode == 1){
qDebug() << "captured image to - " << m_imagePath;
qDebug() << "captured image exist - " << QFile::exists(m_imagePath);
m_imageView->setPixmap(QPixmap(m_imagePath));}
}
QString m_imagePath;
QLabel *m_imageView;
};

C、填加控件触发事件。一般来说我们选择pressed事件
d、编写拍照代码
//打开摄像头,采集图片
voidMainWindow::on_btn_capture_pressed()
{
ui->lbMain->setScaledContents(true);//显示的图像自动缩放
b_canSave=false; //图片没有采集完成,目前不可以保存
//引用JNI
QAndroidJniEnvironmentenv;
//创建用于打开摄像头的content
QAndroidJniObjectaction=QAndroidJniObject::fromString("android.media.action.IMAGE_CAPTURE");QAndroidJniObject (intent("android/content/Intent","(Ljava/lang/String;)V",action.object<jstring>());
//设定img路径
QStringdate=QDateTime::currentDateTime().toString("yyyyMMdd_hhmmss");
QAndroidJniObjectfileName=QAndroidJniObject::fromString(date+".jpg");
QAndroidJniObjectsavedDir=QAndroidJniObject::callStaticObjectMethod("android/os/Environment","getExternalStorageDirectory","()Ljava/io/File;");
//使用CHECK_EXCEPTION处理异常
CHECK_EXCEPTION()
qDebug()<<"savedDir-"<<savedDir.toString();
QAndroidJniObjectsavedImageFile("java/io/File","(Ljava/io/File;Ljava/lang/String;)V",savedDir.object<jobject>(),fileName.object<jstring>());
CHECK_EXCEPTION()
qDebug()<<"savedImageFile-"<<savedImageFile.toString();
QAndroidJniObjectsavedImageUri=QAndroidJniObject::callStaticObjectMethod("android/net/Uri","fromFile","(Ljava/io/File;)Landroid/net/Uri;",
savedImageFile.object<jobject>());
CHECK_EXCEPTION()

//将输出路径传递过来
QAndroidJniObjectmediaStoreExtraOutput=QAndroidJniObject::getStaticObjectField("android/provider/MediaStore","EXTRA_OUTPUT","Ljava/lang/String;");
CHECK_EXCEPTION()
qDebug()<<"MediaStore.EXTRA_OUTPUT-"<<mediaStoreExtraOutput.toString();
intent.callObjectMethod(
"putExtra","(Ljava/lang/String;Landroid/os/Parcelable;)Landroid/content/Intent;",mediaStoreExtraOutput.object<jstring>(),
savedImageUri.object<jobject>());

//获得采集图片的绝对路径,并且显示出来
ResultReceiver*resultReceiver=newResultReceiver(savedImageFile.toString(),ui->lbMain);
startActivity(intent,1,resultReceiver);
//获得返回的绝对地址(注意这句话一定要写在CHECK_EXCEPTION中)
strFetchImage=savedImageFile.toString();
}
最终采集到的图片地址保存在strFetchImage 中

e、编写处理代码。由于我这里主要进行的是图像处理操作,所以必须结合OpenCV相关函数进行
//图像处理操作
voidMainWindow::on_btn_process_pressed()
{
b_canSave=false;
if(strFetchImage!="")
{
ui->lbMain->setScaledContents(false);
Matsrc=imread(strFetchImage.toStdString());
Matsrc2;
Matrotated;
////////////////////////////主要算法/////////////////////////////
cv::resize(src,src2,cv::Size(720,1000));//标准大小
Matsrc_gray;
Matsrc_all=src2.clone();

Matthreshold_output;
vector<vector<Point>>contours,contours2;
vector<Vec4i>hierarchy;
//预处理
cvtColor(src2,src_gray,CV_BGR2GRAY);
blur(src_gray,src_gray,Size(3,3));//模糊,去除毛刺
threshold(src_gray,threshold_output,100,255,THRESH_OTSU);
//添加提示
ui->lb_info->setText("开始寻找轮廓!");
//寻找轮廓
//第一个参数是输入图像2值化的
//第二个参数是内存存储器,FindContours找到的轮廓放到内存里面。
//第三个参数是层级,**[Next,Previous,First_Child,Parent]**的vector
//第四个参数是类型,采用树结构
//第五个参数是节点拟合模式,这里是全部寻找
findContours(threshold_output,contours,hierarchy,CV_RETR_TREE,CHAIN_APPROX_NONE,Point(0,0));
//添加提示
if(contours.size()<=10)
{
ui->lb_info->setText("轮廓筛选错误,循环退出!请重新采集数据。");
return;
}
else
{
ui->lb_info->setText("开始寻找轮廓!开始筛选轮廓!");
}

//轮廓筛选
intc=0,ic=0,area=0;
intparentIdx=-1;
for(inti=0;i<contours.size();i++)
{
//hierarchy[i][2]!=-1表示不是最外面的轮廓
if(hierarchy[i][2]!=-1&&ic==0)
{
parentIdx=i;
ic++;
}
elseif(hierarchy[i][2]!=-1)
{
ic++;
}
//最外面的清0
elseif(hierarchy[i][2]==-1)
{
ic=0;
parentIdx=-1;
}
//找到定位点信息
if(ic>=2)
{
contours2.push_back(contours[parentIdx]);
ic=0;
parentIdx=-1;
}
}

//添加提示
if(contours2.size()<3)
{
ui->lb_info->setText("定位点选择错误,循环退出!请重新采集数据。");
return;
}
else
{
ui->lb_info->setText("开始寻找轮廓!开始筛选轮廓!定位点选择正确!");
}

//填充定位点,我们约定,必须要能够同时识别出4个点来
for(inti=0;i<contours2.size();i++)
drawContours(src_all,contours2,i,CV_RGB(0,255,0),-1);

//识别出来了关键区域,但是数量不对,显示当前识别结果,退出循环
if(contours2.size()!=4)
{
QPixmapqpixmap=Mat2QImage(src_all);
ui->lbMain->setPixmap(qpixmap);
ui->lb_info->setText("定位点数量不为4!请重新采集数据。");
return;
}
else
{
//否则,进一步分割
Pointpoint[4];
for(inti=0;i<contours2.size();i++)
{
//筛选轮廓,
doubled=contourArea(contours2[i]);
if(d>720*1000/4)
{
ui->lb_info->setText("采集中有错误轮廓,请重新采集数据");
QPixmapqpixmap=Mat2QImage(src_all);
ui->lbMain->setPixmap(qpixmap);
return;
}
//定位重点,并重新排序
Pointptmp=Center_cal(contours2,i);

if(ptmp.x<720/4&&ptmp.y<1000/4)
{
point[0]=ptmp;
}
elseif(ptmp.x<720/4&&ptmp.y>1000/4)
{
point[2]=ptmp;
}
elseif(ptmp.x>720/4&&ptmp.y<1000/4)
{
point[1]=ptmp;
}
else
{
point[3]=ptmp;
}
}

//打印出来
for(inti=0;i<3;i++)
{
charcbuf[100];
sprintf(cbuf,"%d",i+1);
putText(src_all,cbuf,point[i],FONT_HERSHEY_PLAIN,5,Scalar(0,0,0),5);
ui->lb_info->setText("结果识别正确,可以保存");
}

//透视变换
cv::Point2fsrc_vertices[4];
src_vertices[0]=point[0];
src_vertices[1]=point[1];
src_vertices[2]=point[2];
src_vertices[3]=point[3];
Point2fdst_vertices[4];
dst_vertices[0]=Point(0,0);
dst_vertices[1]=Point(720,0);
dst_vertices[2]=Point(0,1000);
dst_vertices[3]=Point(720,1000);
MatwarpMatrix=getPerspectiveTransform(src_vertices,dst_vertices);
//执行透视变化
warpPerspective(src2,rotated,warpMatrix,rotated.size(),INTER_LINEAR,BORDER_CONSTANT);
}
//////////////////////////END主要算法END///////////////////////
//将图片显示到label上
QPixmapqpixmap=Mat2QImage(rotated);
ui->lbMain->setPixmap(qpixmap);
matResult=rotated.clone();
b_canSave=true;
}
}
三、初步结果和继续研究需要解决的问题
按照设计,目前得到这样的结果
下一步注重解决以下问题
1、提高程序稳定性;
2、提高界面流程性和运行速度;
3、重构代码,进一步进行封装;
4、添加数据保存的相关功能。
感谢阅读至此,希望有所帮助!
...全文
990 2 打赏 收藏 转发到动态 举报
写回复
用AI写文章
2 条回复
切换为时间正序
请发表友善的回复…
发表回复
worldy 2018-01-15
  • 打赏
  • 举报
回复
百灵工作室 2018-01-15
  • 打赏
  • 举报
回复
需要下载QT的antriod的开发包吧,我记得
可以实现基本的音乐播放操作,加入百度手势识别API控制音乐播放 OpenCV(Open Source Computer Vision Library)是一款开源的计算机视觉库,专门为图像和视频处理任务设计,广泛应用于学术研究、工业应用以及个人项目中。以下是关于OpenCV的详细介绍: 历史与发展 起源:OpenCV于1999年由英特尔公司发起,旨在促进计算机视觉技术的普及和商业化应用。该项目旨在创建一个易于使用、高效且跨平台的库,为开发者提供实现计算机视觉算法所需的基础工具。 社区与支持:随着时间的推移,OpenCV吸引了全球众多开发者和研究人员的参与,形成了活跃的社区。目前,OpenCV由非盈利组织OpenCV.org维护,并得到了全球开发者、研究机构以及企业的持续贡献和支持。 主要特点 跨平台:OpenCV支持多种操作系统,包括但不限于Windows、Linux、macOS、Android和iOS,确保代码能够在不同平台上无缝运行。 丰富的功能:库中包含了数千个优化过的函数,涵盖了计算机视觉领域的诸多方面,如图像处理(滤波、形态学操作、色彩空间转换等)、特征检测与描述(如SIFT、SURF、ORB等)、物体识别与检测(如Haar级联分类器、HOG、DNN等)、视频分析、相机校正、立体视觉、机器学习(SVM、KNN、决策树等)、深度学习(基于TensorFlow、PyTorch后端的模型加载与部署)等。 高效性能:OpenCV代码经过高度优化,能够利用多核CPU、GPU以及特定硬件加速(如Intel IPP、OpenCL等),实现高速图像处理和实时计算机视觉应用。 多语言支持:尽管OpenCV主要使用C++编写,但它提供了丰富的API绑定,支持包括C、Python、Java、MATLAB、JavaScript等多种编程语言,方便不同领域的开发者使用。 开源与免费:OpenCV遵循BSD开源许可证发布,用户可以免费下载、使用、修改和分发库及其源代码,无需担心版权问题。 架构与核心模块 OpenCV的架构围绕核心模块构建,这些模块提供了不同层次的功能: Core:包含基本的数据结构(如cv::Mat用于图像存储和操作)、基本的图像和矩阵操作、数学函数、文件I/O等底层功能。 ImgProc:提供图像预处理、滤波、几何变换、形态学操作、直方图计算、轮廓发现与分析等图像处理功能。 HighGui:提供图形用户界面(GUI)支持,如图像和视频的显示、用户交互(如鼠标事件处理)以及简单的窗口管理。 VideoIO:负责视频的读写操作,支持多种视频格式和捕获设备。 Objdetect:包含预训练的对象检测模型(如Haar级联分类器用于人脸检测)。 Features2D:提供特征点检测(如SIFT、ORB)与描述符计算、特征匹配与对应关系估计等功能。 Calib3d:用于相机标定、立体视觉、多视图几何等问题。 ML:包含传统机器学习算法,如支持向量机(SVM)、K近邻(KNN)、决策树等。 DNN:深度神经网络模块,支持导入和运行预训练的深度学习模型,如卷积神经网络(CNN)。 应用领域 OpenCV广泛应用于: 科研与教育:作为计算机视觉教学和研究的基础工具,OpenCV简化了算法原型开发与验证过程。 工业自动化:在视觉检测、机器人导航、产品质量控制等工业场景中,OpenCV用于实时图像分析与决策。 安防监控:用于人脸识别、行人检测、行为分析等智能监控系统。 医疗影像分析:在医疗领域,OpenCV可用于医学图像处理、病灶检测、诊断辅助等应用。 自动驾驶:在车辆视觉感知系统中,OpenCV用于道路标志识别、障碍物检测、车道线识别等任务。 多媒体应用:如图像编辑软件、AR/VR应用、游戏开发等,利用OpenCV进行图像和视频处理。 物联网与嵌入式系统:在资源受限的嵌入式设备上,OpenCV提供轻量级的计算机视觉解决方案。 学习与社区资源 OpenCV拥有丰富的官方文档、教程、示例代码以及活跃的开发者社区,包括GitHub、StackOverflow、官方论坛等,为学习和使用OpenCV提供了有力支持。此外,有许多书籍、在线课程、博客文章和研讨会专门讲解OpenCV的使用和计算机视觉技术。 综上所述,OpenCV作为一款功能强大、高效、跨平台且开源的计算机视觉库,为开发者提供了实现各类图像和视频处理任务所需的工具箱,其广泛的应用领域和活跃的社区支持使之成为计算机视觉领域不可或缺的开发工具。

19,468

社区成员

发帖
与我相关
我的任务
社区描述
VC/MFC 图形处理/算法
社区管理员
  • 图形处理/算法社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧