2023软工K班个人编程任务

郭子浩102101535 2023-09-14 22:23:58
(1.1)在Github仓库中新建一个学号为名的文件夹,同时在博客正文首行给出作业Github链接

======>我的GitHub作业链接

一、PSP表格

(2.1)在开始实现程序之前,在附录提供的PSP表格记录下你估计将在程序的各个模块的开发上耗费的时间。
(2.2)在你实现完程序之后,在附录提供的PSP表格记录下你在程序的各个模块上实际花费的时间。
PSP2.1Personal Software Process Stages预估耗时(分钟)实际耗时(分钟)
· Planning· 计划1015
· Estimate· 估计这个任务需要多少时间555811
· Development· 开发475706
· Analysis· 需求分析 (包括学习新技术)120165
· Design Spec· 生成设计文档2523
· Design Review· 设计复审106
· Coding Standard· 代码规范 (为目前的开发制定合适的规范)107
· Design· 具体设计6053
· Coding· 具体编码200367
· Code Review· 代码复审2040
· Test· 测试(自我测试,修改代码,提交修改)3045
· Reporting· 报告80105
· Test Repor· 测试报告3030
· Size Measurement· 计算工作量2015
· Postmortem & Process Improvement Plan· 事后总结, 并提出过程改进计划3060
· 合计565826

二、任务要求的实现

(3.1)项目设计与技术栈。从阅读完题目到完成作业,这一次的任务被你拆分成了几个环节?你分别通过什么渠道、使用什么方式方法完成了各个环节?列出你完成本次任务所使用的技术栈。
  • 任务规划

    根据提供的PSP表格对任务进行规划,规划各个步骤用时

  • 学习新技术

    通过学习b站中的教学视频,学会爬取指定视频的弹幕,也对整体框架有了清楚的认识

    技术栈:Python request库Edge浏览器开发者工具Python正则表达式

  • 获取bvid和cid

    通过查阅得知b站api,通过查询其数据结构,得到视频的bvid。得到bvid之后以同样的方法通过api获取指定视频cid

    技术栈:Python request库json文件数据结构分析

  • 编程实现获取弹幕

    在上一步得到视频的cid号之后,通过弹幕地址可以进行爬取弹幕。利用正则表达式转换符合格式的字符串,之后将得到的弹幕列表写入Excel中

    技术栈:Python正则表达式Edge浏览器开发者工具Python文件存取操作(openpyxl与pandas库相关操作)Python request库

  • 统计词频

    先读入Excel文件,先将读取的列转换成以空格分隔为形式的字符串,在将其变成列表。之后就可以用collection库中的Counter类统计词频,得到一个字典
    字典中key为弹幕,value为频次。再利用sorted方法对字典以value(频次)为关键词进行排序,之后将弹幕出现次数输出到Excel中,应题目要求输出出现次数前20的弹幕

    技术栈:Python collection库Python sorted方法Python文件存取操作(openpyxl与pandas库相关操作)

  • 词云图绘制及数据可视化

    我利用一个基于wordcloud实现的stylecloud,使用stylecloud.generate_stylecloud()_ 方法来生成词云图,传递相应的文本文件,生成词云图

    技术栈:Python stylecloud库

  • 代码分析

    这里利用pycharm的插件SonarLint进行Code Quality Analysis,参照官方检测规则及修复示例消除了所有警告,如图:

    img

    技术栈:SonarLint的运用

  • 性能分析与改进

    利用pycharm专业版自带的功能检测过后,利用多进程并发进行优化

    技术栈:多进程并发工作队列

  • 单元测试

    利用python自带的unittest进行单元测试,顺利通过单元测试

    img

(3.2)爬虫与数据处理。说明业务逻辑,简述代码的设计过程(例如可介绍有几个类,几个函数,他们之间的关系),并对关键的函数或算法进行说明。
  • 业务逻辑

img

  • 先从b站API中获取视频的bvid号。先加上headers头部信息,伪装来源,减少被拦截的可能性,然后通过HTTP的get方法获取json文件,
    再用python内置函数将json文件转换成字典格式。其数据结构可以从html文件中看出,由此可以得到视频的bvid号。
    其中用到request.get()函数和json.loads()函数,json.loads()函数可以把requests.get()函数得到的json文件转为字典格式

def get_bvid(page_number, number):  # 根据搜索页api获取视频的bvid号

    # url即网址
    url = 'https://api.bilibili.com/x/web-interface/search/all/v2?' \
          'page=' + str(page_number) + '&keyword=%E6%97%A5%E6' \
                                       '%9C%AC%E6%A0%B8%E6%B1%A1%E6%9F%93%E6%B0%B4%E6%8E%92%E6%B5%B7'

    headers = {

        'cookie': '...此处省略',

        'origin': 'https://www.bilibili.com',

        'referer': 'https://www.bilibili.com/video/BV1yF411C7ZJ/?spm_id_from='
                   '333.337.search-card.all.click&vd_source=e5ea948412c2a8820992ad19400de8ab',

        'user-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/116.0.0.0 Safari/537.36 Edg/116.0.1938.81'

    }  
    response = requests.get(url=url, headers=headers).text  # 利用HTTP的get方法,以json格式得到文件

    json_data = json.loads(response)  # 用python内置函数将json文件转换成字典格式
    return json_data['data']['result'][11]['data'][number]['bvid']  # 根据key得到value


  • 得到视频的bvid后,在根据b站的另一个API获取指定视频的cid号,同样利用get方法得到json文件,后转成字典,再其根据数据结构得到cid号
    其中同样用到request.get()函数和json.loads()函数,json.loads()函数可以把requests.get()函数得到的json文件转为字典格式
def get_cid(bvid):  # 视频的bvid号得到指定视频的cid号
    try:
        url = 'https://api.bilibili.com/x/player/pagelist?bvid=' + str(bvid) + '&jsonp=jsonp'

        response = requests.get(url).text  # 利用HTTP的get方法,以json格式得到文件

        json_dict = json.loads(response)  # 用python内置函数将json文件转换成字典格式
        bulletchat_api = tempApi.replace("{number}", str(json_dict['data'][0]['cid']))
        apiQueue.put(bulletchat_api)
        print(bulletchat_api)
        return json_dict['data'][0]['cid']  # 根据key得到value
    except (KeyError, IndexError, requests.RequestException) as e:
        print(f"获取cid出现异常: {e}")
        return None
  • 有了视频的cid号之后就可以进行视频弹幕的爬取了,利用字符串拼接,得到300个视频的弹幕地址,利用requests.get()函数得到数据,其中要用time.sleep()函数使程序暂停运行,防止爬取过快使得受到拦截,后用正则表达式进行匹配字符串,写入Excel与txt文档中。 为了使其多线程工作,利用锁和队列对不同线程进行协调,避免线程碰撞导致丢失
    其中用到了time.sleep()、re.findall()、requests.get()、write()、append(),empty()、acquire()、release()等函数
def get_data():
    while not apiQueue.empty():
        response = requests.get(url=apiQueue.get(), json=params, headers=headers)  # 利用HTTP的get方法,得到json格式文件
        response.encoding = response.apparent_encoding
        print(response)
        data = re.findall('<d p=".*?">(.*?)</d>', response.text)  # re.findall第一个参数pattern是模式串,第二个是字符串
        # 以list形式返回符合模式串格式的所有字符串
        print(data)
        for index in data:
            threadLock.acquire()
            print(index)
            file_txt = open('全部弹幕.txt', 'a', encoding='utf-8')
            file_txt.write(index + '\n')
            total_sheet.append([index])  # 添加到所创建的工作表sheet中
            threadLock.release()
        time.sleep(1)
  • 爬取弹幕完成后,就可以利用Excel中的数据进行词频统计了,这里关键在于利用collections中的Counter方法,统计出列表中各个弹幕的出现次数,将其存储在字典当中,再利用sorted方法以value进行排序,即得到出现次数前20的弹幕,将其输出到控制台和Excel中
def calculate_frequency():
    try:
        workbook = openpyxl.Workbook()  # 创建一个工作簿
        sheet = workbook.active  # 在工作簿中创建一个工作表
        sheet.append(['弹幕'])  # 为表加上列名
        sheet.cell(row=1, column=2).value = '频次'

        new_workbook = openpyxl.Workbook()
        new_sheet = new_workbook.active
        new_sheet.append(['弹幕'])
        new_sheet.cell(row=1, column=2).value = '频次'

        excel_path = '全部弹幕.xlsx'
        fd = pd.read_excel(excel_path)  # 读出文件
        lines = fd['弹幕']  # 得到列名为弹幕的一列数据
        text = ' '.join(lines.astype(str))  # 先把得到的数据转换成str类型文件,在用空格把它们连接起来
        words = text.split()  # 将得到的字符串分割成列表
        word_counts = collections.Counter(words)  # 用collections库中的Counter  类统计每个词出现的次数

        sorted_word_counts = sorted(word_counts.items(), key=lambda x: x[1], reverse=True)  # 按第二列对词频统计结果按照频次进行排序

        for word, count in sorted_word_counts:
            sheet.append([word, count])

        for i in range(20):
            new_sheet.append(sorted_word_counts[i])
            print("排名第" + str(i + 1) + ": ", end="")
            print(sorted_word_counts[i])

        workbook.save('统计弹幕出现次数.xlsx')
        new_workbook.save('排名前20的弹幕数量.xlsx')
    except Exception as e:
        print(f"计算频次出现异常: {e}")

  • 利用stylecloud库中的将generate_stylecloud()方法生成词云图,其保存在当前目录下,并利用matplotlib库的绘图工具绘制频次柱状图实现数据可视化,并弹出绘画窗口

 def generate_wordcloud():
      try:
        stylecloud.gen_stylecloud(file_path='全部弹幕.txt',
                                  font_path='C:\\Windows\\Fonts\\STZHONGS.TTF',
                                  palette='colorbrewer.diverging.Spectral_11',
                                  icon_name='fas fa-skull ',
                                  background_color='black',
                                  size=2048,
                                  gradient='horizontal',
                                  output_name='词云图.png')
     except Exception as e:
        print(f"生成词云出现异常: {e}")


    def data_visualization():
    try:
        excel_file = '排名前20的弹幕数量.xlsx'
        df = pd.read_excel(excel_file)

        values = df['弹幕']  # 第一列是弹幕
        frequencies = df['频次']  # 第二列是频次

        # 创建可视化图表
        plt.figure(figsize=(10, 6))  # 设置图表尺寸
        plt.bar(values, frequencies)  # 创建柱状图
        plt.xlabel('弹幕')  # 设置X轴标签
        plt.ylabel('频次')  # 设置Y轴标签
        plt.title('频次分布图')  # 设置图表标题

        # 显示图表
        plt.xticks(rotation=270)  # 设置X轴标签旋转,以防止标签重叠
        plt.tight_layout()  # 自动调整布局,以防止标签重叠
        plt.show()
    except Exception as e:
        print(f"数据可视化出现异常: {e}")

(3.3)数据统计接口部分的性能改进。记录在数据统计接口的性能上所花费的时间,描述你改进的思路,并展示一张性能分析图(例如可通过VS /JProfiler的性能分析工具自动生成),并展示你程序中消耗最大的函数。
  • 在数据统计接口性能分析上我利用的是Pycharm中的性能分析工具,各个数据统计接口所花费时间结果如下,未优化的版本get_data()费时比词云图和频次分析多太多了,图会显示太长,这里把获取弹幕和词云图生成作为一组,频次统计和数据可视化作为一组分开展示(由于爬取太多次导致屡屡被封,这部分仅显示爬取100个视频所花费时间以分析性能):
  • 获取弹幕和词云图:

img

img

  • 频次分析和数据可视化:

img

img

  • 由此可以看出,在网络状况差的情况下(连接校园网),总的时间高达10分钟左右,在main函数中get_data函数即获取弹幕的函数所花时间最多,这里着重优化get_data()函数。
    利用Python中的threading库定义thread类,同时开启16个线程,将弹幕地址装在队列中,避免了函数中重复调用所浪费的时间,将其一次性算完让16个线程同时工作,再利用锁和队列对多线程工作进行协调,避免线程碰撞导致数据丢失,针对锁的位置不断修改和调试,终于调通了!!并有效缩短时长!!
  • 耗时最多:get_data()
  • 优化后结果如下:

img

img

  • 可见经过多线程优化后,在同样的网络状况下,全部函数调用过后总时间降到了2分钟左右,缩短了5倍左右!!
(3.4)数据结论的可靠性。介绍结论的内容,以及通过什么数据以及何种判断方式得出此结论。
  • 结论内容:b站用户在面对日本核污染水排海的一致表示反对,坚决抵制日本核污水排海,我们应该保护地球,保护海洋。
  • 判断方法:我通过对弹幕出现的频次分析中可以看出,保护海洋,保护地球,坚决抵制等关键词出现的频次是最高的,如下图所示。并且生成的词云图保护海洋,保护地球的字体也是最大的,如(3.5)中词云图所示

img

(3.5)数据可视化界面的展示。在博客中介绍数据可视化界面的组件和设计的思路。
  • 词云图:利用stylecloud库的generate_wordcloud方法生成词云图

img

  • 柱状图:通过pandas库读取Excel文件,再用matplotlib库中的绘图工具将其频次分布图输出

img

  • 组件:matplotlib库,stylecloud库,pandas库

  • 设计思路:最开始时想利用wordcloud库工具实现词云图的制作,但是想要制作好看的词云图需要将png或者jpeg等格式的图片资源同一并上传才能运行,于是就换了一种生成方法,但是其实也是基于wordcloud库实现的一种方法,这种方法在不将背景图片一并上传的同时也能生成词云图

三、心得体会

(4.1)在这儿写下你完成本次作业的心得体会,当然,如果你还有想表达的东西但在上面两个板块没有体现,也可以写在这儿~
  • 在本次作业真正入手实践之间,在会运用爬虫技术爬取百度上的图片,并不会甚至没听说过可以爬取b站弹幕。在动手实践时也是遇到了许多困难,在爬虫代码的实现上所费时不多,更多的是在爬取过多次,被封后的等待时间以及在性能分析那块费时许久。git的使用也是摸索了好久,遭遇种种错误之后终于调通了。

  • 总的来说,这次作业让我学习到了许多之前没了解过的领域,如Code Quality Analysis、多线程并发执行、Git的使用和单元测试等等等等,都是之前从未探索过的领域。同时更加熟悉了python的文件读取操作、matplotlib库进行绘图以及爬虫技术的拓展。最重要的是,锻炼了独立面对一个繁琐项目的能力,能够在有限的时间中完成各项任务,也加强了面对异常情况的查阅资料处理能力,对我来说这是一次启发性的项目体验,能够让我在今后的学习生活中更好的独立完成任务。

  • 在最后的多线程优化环节折腾了一天多的时间,又是在deadline前爆赶,在以后面对比较繁琐的任务时,应该提前做好规划,分成小块,逐步完成。下次一定!

四、附加题

一、爬取世界主流媒体看法。并预测走向
  • 原先是想爬取YouTube相关视频弹幕以此获取世界主流媒体看法,后来遇到了种种困难,时间也不太充裕了,所有就在国内的新闻媒体上爬取了一些国外媒体的相关文字报道,经过许多无效文字的筛选,结果如下图所示:

    img

  • 由此可以看出英美媒体明显支持日本,淡化核废水排海的危害。而法国媒体的态度较为中立。土耳其和阿拉伯世界也比较反对日本排海,阿拉伯半岛新闻谴责日本把太平洋当作垃圾桶。马来西亚媒体则十分务实低调,态度不明确,但让自己国家老百姓放心会选择性筛选进口日本的食品。

  • 预测事件走向:经过全球大部分国家对日本海产品的抵制,日本海产品行业必将受到全方位的影响,包括日本的经济方面也会造成很大的影响。这不仅可能会引发国际上的贸易争端,更可能导致全球其他国家之间的紧张关系。

二、自主发挥
  • 我爬取了b站关键词为无畏契约的前300个视频中的弹幕,并做了词云分析和数据可视化,如下图:

    img

    img

  • 由此可以看出无畏契约玩家对 '啊?' 的使用率很高,并且玩家们都是非常开心的在玩游戏以及看相关视频

...全文
123 2 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
2 条回复
切换为时间正序
请发表友善的回复…
发表回复
kevinkex 2023-09-19
  • 打赏
  • 举报
回复

啊,哈哈哈哈哈,你确定都不去除一下stop words?

吴鑫雄102101518 2023-09-15
  • 打赏
  • 举报
回复

巨ccccccccccccc

南京工程学院 车辆工程系 本科毕业设计(论文)开题报告 题 目:基于数字图像处理的车牌定位和分割的研究 专 业: 自动化(车辆电子电气) 级: K车电气051 学 号:240061443 学生姓名: 朱培诚 指导教师: 顾新艳 讲 师 2010年3月 说 明 1.根据南京工程学院《毕业设计(论文)工作管理规定》,学生必须撰写《毕业设计(论文)开题报告》,由指导教师签署意见、教研室审查,系教学主任批准后实施。 2.开题报告是毕业设计(论文)答辩委员会对学生答辩资格审查的依据材料之一。学生应当在毕业设计(论文)工作前期内完成,开题报告不合格者不得参加答辩。 3.毕业设计开题报告各项内容要实事求是,逐条认真填写。其中的文字表达要明确、严谨,语言通顺,外来语要同时用原文和中文表达。第一次出现缩写词,须注出全称。 4.本报告中,由学生本人撰写的对课题和研究工作的分析及描述,应不少于2000字,没有经过整理归纳,缺乏个人见解仅仅从网上下载材料拼凑而成的开题报告按不合格论。 5.开题报告检查原则上在第2~4周完成,各系完成毕业设计开题检查后,应写一份开题情况总结报告。 本科毕业设计(论文)开题报告 学生姓名 朱培诚 学 号 240061443 专 业 自动化(车辆电子电气) 指导教师 顾新艳 职 称 讲 师 所在院系 车辆工程 课题来源 自拟课题 课题性质 工程技术研究 课题名称 基于数字图像处理的车牌定位和分割的研究 毕业设计的内容和意义 采用数字图像处理的原理和技术,进行车牌区域的准确定位和分割的研究,给出相应的算法,并通过VC编程实现。 毕业设计的具体内容: 1.熟悉和了解数字图像处理的原理和技术。 2.熟悉VC的编程和调试方法。 3.掌握数字图像处理的常规算法,尤其对图像的几何校正,边缘检测、区域定位和图像分割原理和算法要有深入的了解。 4. 完成车牌区域的准确定位和分割的设计方案,给出相应的算法,并通过编程实现。 本课题研究的意义: 在交通路口的违章监视,在高速公路收费入口,在涵洞、桥梁的入口以及在停车场和加油站的管理中,都需要对汽车牌照进行记录,而目前这些工作大多数都是由人工完成的,工作量很大,有时也难免会出现错误,如果改用智能系统进行自动的检测和识别,则会大大提高工作的速度,降低管理人员的工作量,提高服务的效率与质量。 在国内现有技术的基础之上进一步研究汽车牌照智能识别技术实现对实时采集到的汽车牌照图像进行分析,准确定位分割、提取出图像中的汽车牌照,并快速自动智能地识别出汽车牌照,还可以全面消除人为因素,因而对车牌识别技术的研究和应用系统开发具有重要的现实意义。 文 献 综 述 车牌自动识别系统从上一世纪80年代开始进入应用研究阶段、这个阶段的研究没有形成完整的系统体系,而是就某一具体的问题进行研究,通常采用简单的图像处理方法来解决。进入20世纪90年代后,随着计算机视觉的发展和计算机性能的提高,开始出现车牌识别的系统化研究。中国、美国、日本、法国等国家相继投入大量的人力、物力进行应用研究,随着社会的进一步发展,交通状况急需更快的发展来适应经济发展需要,各国更加关注对该系统的研究和应用。 文献[1]中阐述了智能交通系统的概念于1990年由美国智能交通学会(ITS America,当时名称为IVHS America)提出,并在世界各国大力推广。经过10多年的推广、试行和发展,智能交通系统目前己在世界上经济发达国家和经济较为发达国家的一些都市及高速公路系统中实施。实践证明,迄今为止,在美国、欧洲、亚洲都已有成功应用的范例。在国外,以色列Hi-Tech公司的See/Car System系列,香港Asia VisionTechnology公司的VECON产品,新加坡Optasia公司的VLPRS系列都是比较成熟的产品。虽然国外汽车牌照识别系统研究工作己有一定进展,但并不适合我国汽车牌照识别,其原因主要有我国车牌本身的特点决定的。我国车辆牌照缺乏统一的标准,根据不同汽车、车型、用途,规定了多种牌照格式(例如分为军车、警车、普通车等);悬挂位置随机,使得车牌识别过程中缺乏规律,使车牌定位分割、字符切分难度增加,准确性降低;车牌长期暴露易受污损,使得车牌区域模糊不清,易发生粘连、断裂等现象,在国外发达国家不允许由于环境、道路或人为因素造成汽车牌照污染严重的车辆上路行驶;我国车辆牌照由汉字、字母和数字组成,汉字的识别与字母和数字的识别有很大的不同,从而增加了识别的难度;其他国家汽车牌照的底色和字符颜色统一,只有对比度较强的两种颜色,而我国汽车牌照底色和字符有蓝/白、黑/红、黑/白等多种颜色组合;还有设置的营运牌照及张贴的广告信息,容易在车牌定位时产生干扰、误定位;车牌附近环境恶劣,往往有复杂的外形及安全杠等,不利于快速定位。 文献[2]中阐述了国内在90年代也开始了车牌识别的研究。由于中国车牌与国外的差异,加上车牌上汉字的存在。所以照搬国外的技术并不完全可行。对于国内的己应用系统中较成功的有浙江大学开发的基于web模式的LPR系统,中科院自动化研究所汉王科技公司开发的“汉王眼车牌识别系统”。另外,亚洲视觉科技有限公司、深圳吉通电子有限公司、中国信息产业部下属的中智交通电子有限公司等也有自己的产品,另外西安交通大学的图像处理和识别研究室、上海交通大学的计算机科学和工程系、清华大学人工智能国家重点实验室等也做过类似的研究。目前这些系统普遍存在的问题有:全天候识别率并不稳定, 文 献 综 述 特别是在夜间,或不良天气下识别率会降低到50%左右。还有许多其它问题需要解决,如国内许多论文谈及已实现的系统,都是在对近似理想条件下的汽车图像识别,对于车牌倾斜角度很大,车牌上字符模糊等情况提出的解决办法甚少。因此这样的系统即使识别率较高,也是建立在苛刻的特定的拍照环境下的。车牌自动识别系统产品中还存在一些不足,因而LPR技术的研究还有许多工作要做:从目前一些产品的性能指标可以看出,LPR系统的识别率和识别速度有待提高。研究高速、准确的定位与识别算法是当前的主要任务。上述产品中所使用的汽车图像均为灰度图像,而车牌本身是彩色物体,其底色和字符颜色为有限的几种,具有明显的颜色特征,车牌定位及字符的分割和识别没有用到颜色特征,采用彩色图像模式,目前的算法也很少涉及颜色特征,这在一定程度上影响了系统的性能。对于车牌彩色信息的利用有待于深入研究。另外目前只能处理单个车牌的汽车图像,对于一幅图像中多个车牌的识别则无能为力。这使得目前对多个车道进行监控时,需要多套摄像设备和车牌识别所需的计算机。如能深入研究一幅图像中多个车牌的识别问题,则可降低系统成本,提高工作效率。 所以从技术上对牌照自动识别系统进行进一步的改进完善是很有必要的。在软件上这主要要求提高字符识别率,同时提高软件的运行速度,提高实时性。相信随着研究的深入,LPR技术定会走向成熟。 文献[3]中阐述了目前国内外汽车牌照定位与识别技术主要采用软硬结合方式和软件方式两种技术方案。所谓软硬结合方式,就是首先通过专用的图像抓拍设备获取一幅适合于计算机识别汽车牌照的高质量图像,然后用软件和硬件结合的方式对所获取的专用图像进行牌照识别,它的最大优点就是识别率高,能够全天候工作。所谓软件方式,就是通过识别软件对普通的车辆图像进行牌照识别,它的最大优点就是成本低,通用性好。车牌自动识别系统主要有摄像装置、视频采集接口、计算机和辅助照明装置组成。计算机通过视频采集接口采集摄像装置摄入的视频图像,经处理和识别得到车牌号。在自然光较暗影响识别效果时,由辅助照明装置提供摄像光源。硬件部分包括车辆感应器,高速摄影装置等。车辆感应器的功能是感应车辆的到来,触发高速摄影装置在一定时间内动作抓拍图像。如在高速公路上,通常在收费处前方公路两侧埋置电磁感应圈,当车辆驶入感应区内,电磁感应圈产生电流,触发摄影头工作。除此之外,还有激光红外线车辆感应器等。埋置电磁感应线圈的缺点是工程量大,而激光红外线车辆感应器容易引起二次触发,即脱车引起的触发拍照。动态车牌图像捕捉系统主要由高分辨率摄像机,多光谱照明灯,图像处理器及控制器组成。它根据亮度变化,即可完成车牌的抓拍。相比而言,动态车牌图像捕捉 文 献 综 述 系统可以在白天和夜间等多种情况下工作,清楚捕捉高速运动中的汽车牌照图像,其效果不受日光,车灯等环境因素的影响。大量实验表明该方案是最理想的解决可靠性的方案。 图像输入通常由硬件完成,牌照定位与字符识别通常由软件完成。 文献[4][5][6]中阐述了日前存在的大量的车牌定位算法,选择一个好的定位算法成为车牌识别的一个关键问题。文中针对基于投影法的车牌定位算法。在VC平台上对车牌图像进行预处理后,再通过找点和标出矩形即可实现车牌的定位。通过大量的试验得出,本算法可以解决车牌定位时遇到的绝大部分问题,具有较高的研究价值和社会经济效益。 文献[7]中对智能交通系统的核心技术——汽车牌照识别技术进行了研究,在图像处理技术的基础上,着重研究了车牌区域定位技术,析了日前有代表性的车牌定位方法,介绍了利用粒子图像测速关联PIV(Particle Image Velocimeter)算法原理,提出了一种采用车牌字符笔画2个边缘互相关值最大的方法进行车牌定位的算法,准确而快速地检出了车牌区域,为后续车牌字符识别打下了很好的基础。 文献[8][9][10][11]中阐述了针对不同尺寸车牌图像的定位问题,提出了一种新的自适应车牌定位方法。该方法首先根据车牌区域的共性来提取图像的纵向边缘;然后由车牌区纵向纹理和边缘密度等特征,采用一系列步骤自适应去除干扰边缘来保留类车牌特征区域;最后通过横向形态学运算使类车牌区闭合,以有效地克服以往形态学结构元素难以随车牌尺寸变化自适应选取的问题;同时提出了根据场景实际情况,选用灰度调整和颜色来判别模块的观点。通过实际场景中大量车牌样本的验证结果表明,该算法不仅准确率较高,而且自适应性良好,具有实用价值。 参考文献: [1] 刘允才.智能交通国际发展概况和国内优先考虑的课题[J].公路,2001,11(11):26-34. [2] Liu Jilin,Ma Hongqing.A High Performance License Plate Recognition System Basedon the Web Technique[D]. [3] 郑南宁,张西宁,戴莹,朱海安.行驶车辆牌照自动识别系统[J].西安交通大学学报,1991,l:43-53. [4] 张俭鸽,李娜.车牌定位在VC中的实现[J].中国科技信息,2009, (13):123-124. [5] 郑影.基于VC++的汽车牌照定位与识别系统的设计[D].吉林大学硕士学位论文,2009. [6] 张宏林.精通Visual C++数字图像模式识别技术及工程实践[M]:第2版.北 文 献 综 述 京:人民邮电出版社,2008. [7] 张丽伟,张晶.基于图像处理的车牌定位方法的研究[J].长春工程学院学报(自然科学版),2009,10(2):100-103. [8] 李宇成,阴亮.基于图像的运动车辆速度测量[J].北方工业大学学报,2008(3):32—36. [9] 王广宇.汽车牌照识别系统综述[J].郑州轻工业学院学报(自然科学报),2001,16(2):47-50. [10] 李波,曾致远,周建中.一种自适应车牌图像定位新方法[J].中国图象图形学报,2009,14(10):1978-1984. [11]Kenneth.R.Castleman.Digital Image Processing,Prentice Hall.1998,4. 研 究 内 容 本课题主要利用数字图像处理的原理和技术,完成车牌区域的准确定位和分割的设计方案,研究相应的算法,并通过编程实现。 其具体内容如下: 1、理解和掌握数字图像处理的原理和技术,能熟练运用数字图像处理的常规算法。 2、深入研究预处理中的灰度化、二值化、背景削弱、中值滤波等原理,以及图像的灰度变换空间滤波处理等,探索车牌定位常用的方法,研究现在流行的一些算法,总结出其优点和缺点,能够继承传统方法的优点,并加以改进和提高。 3、掌握算法实现的编程语言,熟练运用设计实现的平台Visual C++ 6.0,提高查阅资料的能力,并通过编程实现车牌的定位。 4、研究一种新型的车牌定位方法,本课题采用多层次分割的思想,每次分割都尽可能地减少分析范围,经过多次分割后最终定位出车牌区域。 研 究 计 划 第1-2周 收集资料,熟悉课题,确定系统总体研究方案。 第3周 熟悉资料,写出开题报告。 第4—5周 熟悉数字图像处理的主要内容。 第6—7周 熟悉VC语言的编程和调试方法。 第8—9周 熟悉并掌握数字图像的常规算法,重点研究边缘检测和区域分割等算法。 第10-11周 用VC编程实现并调试各个处理模块。 第12-13周 对整个系统进行软件联调,整理设计成果。 第14周 撰写论文。 第15周 修改论文,准备答辩。 第16周 毕业答辩。 特 色 与 创 新 在车辆识别系统中,牌照区域定位是影响车牌识别系统性能的重要因素之一车牌定位准确与否直接影响字符识别的准确率,以往的拍照定位重要包括:J.Barroso等基于提出的基于水平线搜索的定位方法;R.Parisi提出的机遇TFC变换的频域分析法;Charl Coeitzee等提出的基于Niblack二值化算法及自适应边界搜索算法的定位方法。这些方法或者对背景比较复及光照条件比较敏感,或者定位速度比较慢,为了克服这些缺陷,本课题提出了基于特征的车辆牌照实时定位算法和多层次分割算法,能够更高效地实现车牌的准确定位和分割,充分体现了该系统的实时性。 指导教师 意 见 指导教师签名: 年 月 日 教研室意见 主任签名: 年 月 日 系部意见 教学主任签名: 年 月 日

119

社区成员

发帖
与我相关
我的任务
社区描述
2023福州大学软件工程K班
软件工程 高校 福建省·福州市
社区管理员
  • kevinkex
  • Devil angel
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧