CSDN论坛 > Java > Web 开发

如何仿boss直聘的筛选查询 [问题点数:50分]

Bbs1
本版专家分:0
结帖率 84.62%
CSDN今日推荐
Bbs2
本版专家分:400
Bbs1
本版专家分:80
Bbs1
本版专家分:0
匿名用户不能发表回复!
其他相关推荐
仿Boss直聘消息界面事件分发效果
在原公司待着没什么成长性,基本上每天都是坐等下班的状况,所以我决定辞职找一份具有挑战性的工作,由于8月份这个季节属于淡季,我拿到8份offer但是 由于这些公司做的产品 基本技术要求不高都是差不多的,所以我放弃了,接着找。然后闲来无事,看到boss直聘里面的一个ui效果,感觉还不错就撸了一个。  现在我们回归话题  话不多说直接上代码      布局文件 <?xml version...
Pyhton爬虫实战 - 抓取BOSS直聘职位描述 和 数据清洗
Pyhton爬虫实战 - 抓取BOSS直聘职位描述 和 数据清洗零、致谢感谢BOSS直聘相对权威的招聘信息,使本人有了这次比较有意思的研究之旅。由于爬虫持续爬取 www.zhipin.com 网站,以致产生的服务器压力,本人深感歉意,并没有 DDoS 和危害贵网站的意思。 2017-12-14 更新 在跑了一夜之后,服务器 IP 还是被封了,搞得本人现在家里、公司、云服务器三线作战啊 一、
通过路径图比较BOSS直聘,智联招聘,拉勾的登录功能
共同点: 1.都针对新用户选择手机接收验证码直接注册登录(手机接收验证码在登录的同时,对新用户来说可以同时具备注册功能,节省时间,最简单的登录注册方式)。 2:都抛弃了最老式的密保问题找回密码的方式,采用手机接收验证码来重新确认用户身份并且重设密码。 不同点: 1.智联招聘主要倾向于保留传统的手机密码登录方式(密码登录是比较传统的登录方式,用户准确记忆下较为方便),在新用
[Python] - 爬虫之抓取 Boss直聘 数据到 Excel 中
声明:此博客爬取的数据只为学习爬虫使用,绝非广告 程序介绍 文件目录 ├── Zhipin_spider # 文件夹 │ ├── spider_main.py # 调度器。是爬虫的入口,管理各个类 │ ├── html_downloader.py # 下载器,负责网页内容的下载 │ ├── html_parser.py # 解析器,负责解析数据,获取有价值的数据
对于程序员在boss直聘求职的建议
1、投得要快,后面投的,有可能看不到 2、简历本身要求职方向明确,重点突出。
Python爬虫框架Scrapy实战 - 抓取BOSS直聘招聘信息
详情链接:http://www.jtahstu.com/blog/scrapy_zhipin_spider.html零、开发环境 MacBook Pro (13-inch, 2016, Two Thunderbolt 3 ports) CPU : 2 GHz Intel Core i5 RAM : 8 GB 1867 MHz LPDDR3 Python : Python 3.6.3 [GCC 4.2
智联招聘VSBOSS直聘VS拉勾 竞品分析
第一次写竞品分析作为练习和学习,过程比较生疏,本来还想站在功能点二——简历方向分析,但是感觉自己的表达方式,把图片堆叠太过于凌乱,就没做分析了,下次练习时会考虑到竞品分析的可读性,直观性来写。 整个竞品分析比较浅,缺乏对于页面交互达到功能点的层级关系和点击步数之类问题的分析。
一个Boss直聘机器人, 自动回复发简历
点击上方“编程精选”,选择“置顶公众号”技术文章第一时间送达!goBoss这是基于go语言编写的一款boss直聘机器人软件(牛人版)。附上Python版本,无需配置Go环境, 我会提供windows和macos的可执行程序。不喜勿喷O(∩_∩)O~闪光点自动回复boss消息回复消息有3种类型。可自行修改, 传入关键字即可(忽略大小写如b站)。消息同一个人只会回复一次。大厂普通黑名单自动发送简历当自...
智联,拉钩,boss直聘,三款互联网招聘应用竞品分析
竞品选择市场分析市场趋势从近年营收份额来看,前程无忧和智联招聘占据了近6成的份额,虽然作为分类信息网站的58赶集也占据了一定份额,但是其主要用户为学历较低或都市蓝领人群。尽管近年来垂直招聘和新型招聘企业逐渐增多,但新兴企业在商业变现和企业成长还需要时间,所以未来市场可能仍将保持双巨头的格局。人工智能、大数据等新型技术或将成为未来互联网招聘基础。利用人工智能和大数据可以更精确的匹配企业和求职者的需求...
基于rvest包爬取BOSS直聘-上海里有关“数据分析”的职位信息
      目前一心想入门数据分析岗位的我,很好奇目前数据分析岗位的现状,故而准备爬取Boss直聘里上海目前数据分析岗位的情况。      上源代码:library(xml2) library(rvest) library(stringr) library(dplyr) i <- 1:10 job_inf <- data.frame() for (i in 1:10){ webpa...
关闭
关闭