Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

hello #599

Open
sssimpleboy opened this issue Oct 11, 2023 · 4 comments
Open

hello #599

sssimpleboy opened this issue Oct 11, 2023 · 4 comments

Comments

@sssimpleboy
Copy link

您好,我尝试部署siamrpn++,发现它的效果不错 ,但是后面那个搜索区与模板特征的那个卷积特别耗时,因为它只是个卷积运算,不属于网络,所以部署的时候不能被加速,只能用CPU算,所以我只能降低它的运算量。
于是我想重新训练。之前这个部分是3个尺度的2次(cls和loc)次卷积,每次卷积256个通道。为了让它运算的快一些,我改成了128个通道。但是训练了 20个循环后,发现在简单的数据上效果也特别差。框框一开始很大,能框牢,然后很快就变得很小。数据集只用了coco的。
我想询问一下,我这个原因是通道数太少了,还是数据集太少了。
谢谢!

@sssimpleboy
Copy link
Author

我先自己看看,对照试验一下

@HLX-GitHub
Copy link

您好,我尝试部署siamrpn++,发现它的效果不错 ,但是后面那个搜索区与模板特征的那个卷积特别耗时,因为它只是个卷积运算,不属于网络,所以部署的时候不能被加速,只能用CPU算,所以我只能降低它的运算量。 于是我想重新训练。之前这个部分是3个尺度的2次(cls和loc)次卷积,每次卷积256个通道。为了让它运算的快一些,我改成了128个通道。但是训练了 20个循环后,发现在简单的数据上效果也特别差。框框一开始很大,能框牢,然后很快就变得很小。数据集只用了coco的。 我想询问一下,我这个原因是通道数太少了,还是数据集太少了。 谢谢!

你好呀!我是在TensorRT上部署这个SiameseRPN,我已经导出成ONNX了,但是那个卷积TensorRT并不支持,请问这个你怎么把它放到CPU上计算的,是将ONNX进行切分吗?

@sssimpleboy
Copy link
Author

您好,我尝试部署siamrpn++,发现它的效果不错 ,但是后面那个搜索区与模板特征的那个卷积特别耗时,因为它只是个卷积运算,不属于网络,所以部署的时候不能被加速,只能用CPU算,所以我只能降低它的运算量。 于是我想重新训练。之前这个部分是3个尺度的2次(cls和loc)次卷积,每次卷积256个通道。为了让它运算的快一些,我改成了128个通道。但是训练了 20个循环后,发现在简单的数据上效果也特别差。框框一开始很大,能框牢,然后很快就变得很小。数据集只用了coco的。 我想询问一下,我这个原因是通道数太少了,还是数据集太少了。 谢谢!

你好呀!我是在TensorRT上部署这个SiameseRPN,我已经导出成ONNX了,但是那个卷积TensorRT并不支持,请问这个你怎么把它放到CPU上计算的,是将ONNX进行切分吗?
我是将目标和搜索区合并,进入模型后分开,然后模型里设置了两个backbone,参数相同,分别对两块图处理。

@sssimpleboy
Copy link
Author

您好,我尝试部署siamrpn++,发现它的效果不错 ,但是后面那个搜索区与模板特征的那个卷积特别耗时,因为它只是个卷积运算,不属于网络,所以部署的时候不能被加速,只能用CPU算,所以我只能降低它的运算量。 于是我想重新训练。之前这个部分是3个尺度的2次(cls和loc)次卷积,每次卷积256个通道。为了让它运算的快一些,我改成了128个通道。但是训练了 20个循环后,发现在简单的数据上效果也特别差。框框一开始很大,能框牢,然后很快就变得很小。数据集只用了coco的。 我想询问一下,我这个原因是通道数太少了,还是数据集太少了。 谢谢!

你好呀!我是在TensorRT上部署这个SiameseRPN,我已经导出成ONNX了,但是那个卷积TensorRT并不支持,请问这个你怎么把它放到CPU上计算的,是将ONNX进行切分吗?

我后来发现耗时的不是那个CPU 部分的卷积。。。 所以就没管了

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants