网易云音乐国外听歌用不了怎么办

王者之光 2021-06-26 12:02:25

深度IP转换器这个可以解决吗

...全文
2451 回复 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
从 GitHub release 下载。有两种口味:netease_org.aum 是清真原味,仅显示歌词原文,适合学霸;netease_trans.aum 是带中文翻译的口味,大众首选。打不开 GitHub 的这里也有度娘盘。 Audio Station网易歌词插件 由于国内版权保护越来越严格,加上各大版权联盟之间互相竞争,导致很多歌曲下架或者只能在一个网站独家播放。虽然这是好事,但在大洗牌完成之前普通用户要听歌就麻烦了不少,要多下载几个 APP。另一方面 Hi-Res 音乐大规模发展,在 mora.jp 上能买到很多楼主喜欢的 ACG 音乐的 Hi-Res 版本,一般为 96kHz/24bit 的 FLAC 文件,普通录音源文件差不多就是这个规格,再压缩一下就是 CD。再加上人在国外很多歌曲都仅限中国大陆地区播放,所以楼主又回到了本地听歌的时代,把歌曲放在群晖 Audio Station 上。 mora.jp上的一首免费歌曲,索尼手机卖萌用mora.jp上的一首免费歌曲,索尼手机卖萌用 这样歌词就成了一个大问题,群晖 Audio Station 自带的歌词插件太弱,歌词都找不到。网络上有个千千静听的插件还不错,早年千千静听用户非常多,也贡献了很多歌词和歌词翻译。但现在早已被收购不再维护,而用户也转移到了腾讯、网易、虾米等等新的网络平台,所以需要有一款新的歌词插件才行。楼主非常喜欢网易云音乐 APP,就决定从这里入手弄一个歌词插件,第一次用 PHP 共花了一个多星期的业余时间才搞定。 歌词都是网易的网友们上传的,很多都带有中文翻译,在此感谢歌词贡献者。
基于大数据个性化音乐推荐算法分析 一、研究目的 音乐推荐算法,就是针对音乐自身的内容特征以及用户的听歌行为,为广大用户提供可能符合他们兴趣爱好的歌曲的算法。而基于大数据的个性化音乐推荐算法,能够通过历史数据,别的用户的历史数据分析出潜在的喜好相似性,为用户更准确地挖掘出潜在的喜欢的音乐。 1995年,Ringo算法的开发成就了历史上第一个推荐算法,可以向用户推荐他们喜欢的音乐并预测用户对特定音乐的评分,之后一段时间内,音乐推荐都是基于音乐曲目的基本信息产生,缺乏针对性。国外著名网站Pandora和Last.fm是最早提出音乐个性化推荐的网站。Pandora的音乐推荐算法主要来源于音乐基因工程(music gene)的项目,根据这些基因计算歌曲的相似度,给用户推荐基因相似度高的音乐。国内也涌现了一些优秀的音乐推荐网站如豆瓣电台、虾米音乐、网易云音乐等等,根据用户平时推荐给好友的歌曲,听歌行为以及歌曲收录信息,找到“相似的品味者”,更好的做出推荐。 本文针对传统基于用户或者基于物品的协同过滤推荐方法在复杂场景下对用户进行音乐推荐占用内存大计算速度慢等缺点,提出一种基于LightGBM决策树算法的音乐推荐算法,使用相关性分析和稳定性选择中的随机逻辑回归进行特征选择,采用数值特征取代个体特征进行用户对音乐的喜好预测,根据不同的候选集,可以形成不同推荐列表。采用kkbox音乐公司公布在Kaggle比赛平台上的用户、音乐、用户操作信息进行验证,预测准确率高达76%,训练时间9min,优于该比赛第一名用户算法的准确率68.4%。采用的算法模型可拓展性强,计算效率高,占用内存小,可以迁移到其它类型的推荐系统中。 二、研究方法 2.1传统推荐算法 传统的推荐系统方法包括基于内容推荐过滤、基于规则的推荐、协同过滤推荐。 基于内容的过滤推荐根据物品的元数据,计算物品的相似性,然后基于用户的历史行为推荐给用户相似的物品;基于规则的推荐常使用于电子商务系统,大量的交易数据中获取关联规则或者按照时间购买商品的序列模型,进行物品之间的相互推荐;协同过滤包括基于用户的协同过滤和基于物品的协同过滤;基于用户的协同过滤通过分析用户历史行为,计算用户之间相似度,利用用户相似度和用户的历史行为给用户形成推荐列表。基于物品的协同过滤与之类似,分析用户行为计算物品之间的相似度,然后根据用户的历史偏好信息,将类似的物品推荐给用户。 2.2基于LightGBM决策树模型的推荐算法 决策树算法的发展过程从C3.0(基于信息增益) CART(基于基尼系数) 提升树(AdaBoost) 梯度提升树(GDBT) XGBosot LightGBM算法。 基于决策树模型的推荐算法具有以下优点:(1)可以并行化训练;(2)能够处理离散连续特征值和类别特征,不用对特征做归一化;(3)能够处理缺失值;(4)可以处理高维特征。 LightGBM(Light Gradient Boosting Machine)是2017年8月微软公司开源的基于决策树算法的分布式梯度提升框架,和之前的提升框架相比有更快的训练效率,更低的内存使用,更高的准确率,支持并行化学习,可以处理大规模数据等优点,可以用于排序,分类和许多其他机器学习任务。 Boosting算法(提升法)指的是迭代算法,核心思想是对训练样本进行k次迭代,每次迭代形成一个弱学习器,然后根据学习误差对分类错误的样本加大训练权重,形成新的带有权重的训练集,训练形成新的弱学习器;最后将这些弱学习器根据结合策略形成一个强学习器。 此外LightGBM利用Histogram的决策树算法,先把连续的浮点特征值离散化为k个整数,构造一个宽度为k的直方图,如图2.2所示,遍历数据时,根据离散化后的值作为索引在直方图中累积统计量,然后根据直方图的离散值,遍历寻找最优的分割点。使用直方图算法因为只保存特征离散化后的值,内存消耗可以降低为原来的1/8左右;此外计算的成本也大大降低,因为预排序算法每遍历一个特征值就需要计算一次分裂的增益,而直方图算法只用计算k(k为直方的个数),时间复杂度从从O(datafeature)优化到O(kfeatures)。 和Xgboost采用level-wise策略相比,LightGBM采用更高效Leaf-wise策略(如图2.3所示),每次从当前所有叶子中,找到分裂增益最大的一个叶子,然后分类,如此循环,和Level-wise相比,分裂次数相同的情况下,可以降低更多的误差,获得更高的精度。同时LightGBM可以通过最大深度的限制防止过拟合。 并且最新的LightGBM可以自动处理缺失值,可以进一步优化类别特征(Categorical Feature),不再使用类似one-hot coding的分割方式,对于类别数量很

492

社区成员

发帖
与我相关
我的任务
社区描述
硬件使用 非技术区
社区管理员
  • 非技术区社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧