利用cuda进行密码暴力破解中遇到的性能问题

Arbalist 2010-08-31 06:10:54
各位好!

最近在编写一个利用GPU的密码暴力破解程序,我发现我程序的整体性能瓶颈不是解密算法本身,而是密码的生成过程
程序中密码生成的规则是有一定规则性的,比方说先生成4位纯数字的全排列,再生成3位小写字母的全排列。

请问各位大牛有没有高效点的解决办法啊?
...全文
382 8 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
8 条回复
切换为时间正序
请发表友善的回复…
发表回复
taseaa 2010-09-11
  • 打赏
  • 举报
回复
[Quote=引用 6 楼 arbalist 的回复:]

引用 5 楼 taseaa 的回复:

引用 3 楼 arbalist 的回复:

那样的话生成的量实在太大了。基本上是GB到TB级的了。。。而且,PCI-E的传输效率也不是很高。。。

那就不用生成了,直接在寄存器里搞就OK啦。
而且各线程互相不干涉,这是GPU运算的最好模式:小输入,大运算,小输出。


密码毫无疑问一定是要在GPU上生成的。只是现在关注的是有没有什么效率……
[/Quote]
而是密码的生成过程。

不是说不是算法本身,而是密码的生成过程么?

怎么又变了呢。
Arbalist 2010-09-10
  • 打赏
  • 举报
回复
[Quote=引用 5 楼 taseaa 的回复:]

引用 3 楼 arbalist 的回复:

那样的话生成的量实在太大了。基本上是GB到TB级的了。。。而且,PCI-E的传输效率也不是很高。。。

那就不用生成了,直接在寄存器里搞就OK啦。
而且各线程互相不干涉,这是GPU运算的最好模式:小输入,大运算,小输出。
[/Quote]

密码毫无疑问一定是要在GPU上生成的。只是现在关注的是有没有什么效率高的算法?
taseaa 2010-09-08
  • 打赏
  • 举报
回复
[Quote=引用 3 楼 arbalist 的回复:]

那样的话生成的量实在太大了。基本上是GB到TB级的了。。。而且,PCI-E的传输效率也不是很高。。。
[/Quote]
那就不用生成了,直接在寄存器里搞就OK啦。
而且各线程互相不干涉,这是GPU运算的最好模式:小输入,大运算,小输出。
beyond071 2010-09-07
  • 打赏
  • 举报
回复
密码生成有没有并行性
taseaa 2010-09-06
  • 打赏
  • 举报
回复
先在CPU端生成相应的组合,然后再送进去解不是很好吗?
Arbalist 2010-09-06
  • 打赏
  • 举报
回复
那样的话生成的量实在太大了。基本上是GB到TB级的了。。。而且,PCI-E的传输效率也不是很高。。。

357

社区成员

发帖
与我相关
我的任务
社区描述
CUDA高性能计算讨论
社区管理员
  • CUDA高性能计算讨论社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧