列出帖子

该操作将允许你查看该会员所有的帖子,注意你只能看到你有权限看到的板块的帖子。


只显示主题 - sisiy

页: [1] 2 3 ... 8
1
答:这个现象可能是电源第一次上电的时候, 上升时间太慢,而直接就地热拔插nano的DC插头/USB口之类的后,供电电源内容的大电容之类的还没有放电干净, 下次启动就容易点了.
建议的解决方案:不要拔插Nano的插头, 而是直接将电源拔掉(例如是插在插座上的电源, 则直接从插座上拔掉)等几秒后, 再插入电源看看.

2
答:文字模式:sudo systemctl set-default multi-user.target
然后 reboot
图形模式:sudo systemctl set-default graphical.target

注意:需要root权限,(请sudo或者su切换到root)

3
你在 Jetson 上面装一个 gparted
sudo apt install gparted
然后执行 sudo gparted
这个工具有 resize 的功能

4
 问一下喔,你们遇到过这样的情况嘛,就是给TX2添加usb摄像头,使用命令lsusb可以检测到usb摄像头,但是用ls /dev/vid*的时候就只有video0不能检测到usb摄像头,这是什么原因呀
我这边还没有运行代码呀,我就是检测摄像头呀,就是在终端输入ls /dev/vid* 以后,输出不显示我自己的usb摄像头呀,只有/dev/video0就是板载摄像头呀

5
if you want to update firmware on your RealSense camera using the Jetson Nano, you can do this using this link:  https://github.com/IntelRealSense/librealsense/tree/master/tools/fw-update

 The standard way (through DFU) does not work.

6
 你们有遇到使用cudaMemcpy时,报错 cudaErrorLaunchFailure(4)的错误吗

 我是使用cudaMemcpyDeviceToHost时,报的这个错误,保存图像的,分辨率在1000*1000以下是可以的,大于这个就无法copy to Host了

7
老铁们,求助下,运行和函数后,使用cudaGetLastError,出现报错:
CUDART error: cudaSetDevice returned  cudaErrorInvalidDevice
有人遇到过吗?咋解决的啊。(我都把显卡重插了)

8
问题:请问有人知道
Concurrent copy and kernel execution:  Yes with 3 copy engine(s)
这里的3指的是什么?文档只有0,1,2的解释。
“asyncEngineCount is 1 when the device can concurrently copy memory between host and device while executing a kernel. It is 2 when the device can concurrently copy memory between host and device in both directions and execute a kernel at the same time. It is 0 if neither of these is supported.”

9
CUDA / 一个warp是指每个mp只能运行一个warp么?
« 于: 三月 09, 2020, 09:53:59 pm »
在gpu计算模型里面,block是和设备上的mp对应还是和mp上的core对应,一个warp是指每个mp只能运行一个warp么?那要那么多的core作用是什么?我理解就是一个block对应一个mp,一个线程对应一个core,那么一个mp有上百个core,只能有一个warp的core能并行运算,那其他的core再多又有什么用呢?小白问题,请哪位指点一下

10
我有一个问题是   Maxwell的cudamallocmanaged相比Pascal的  相差在什么地方大概

11
 
正如标题中提到的,我怎样才能把PI摄像头换成罗技的网络直播摄像头呢?我知道nvarguscamera不支持usb网络摄像头。

我目前的传输码是:
程序代码: [选择]
./test-launch "nvarguscamerasrc ! video/x-raw(memory:NVMM),width=640,height=480 ! tee name=t t. ! queue ! nvoverlaysink overlay-x=50 overlay-y=50 overlay-w=640 overlay-h=480 t. ! queue ! omxh264enc maxperf-enable=1 ! video/x-h264,profile=baseline ! rtph264pay name=pay0 pt=96"

12
NV边缘计算 / 在Jetson NANO上出现Segmentation fault (core dumped)
« 于: 十二月 31, 2019, 11:28:40 am »
问题:
当使用tensorrt引擎在视频上运行ssd inception v2 coco模型时,在运行了2分钟后,进程在Jetson Nano上显示因分割错误(core dump)而停止
程序代码: [选择]
[TensorRT] INFO: Glob Size is 50485364 bytes.
[TensorRT] INFO: Added linear block of size 4292096
[TensorRT] INFO: Added linear block of size 1522176
[TensorRT] INFO: Added linear block of size 739328
[TensorRT] INFO: Added linear block of size 411648
[TensorRT] INFO: Added linear block of size 204800
[TensorRT] INFO: Added linear block of size 57344
[TensorRT] INFO: Added linear block of size 30720
[TensorRT] INFO: Added linear block of size 20992
[TensorRT] INFO: Added linear block of size 9728
[TensorRT] INFO: Added linear block of size 9216
[TensorRT] INFO: Added linear block of size 2560
[TensorRT] INFO: Added linear block of size 2560
[TensorRT] INFO: Added linear block of size 1024
[TensorRT] INFO: Added linear block of size 512
[TensorRT] INFO: Found Creator FlattenConcat_TRT
[TensorRT] INFO: Found Creator GridAnchor_TRT
[TensorRT] INFO: Found Creator FlattenConcat_TRT
[TensorRT] INFO: Found Creator NMS_TRT
[TensorRT] INFO: Deserialize required 3084695 microseconds.
Gtk-Message: 11:48:55.371: Failed to load module "canberra-gtk-module"
Segmentation fault (core dumped)

13
问:gpu上10ms以内运行的模型,可是在Xavier上运行近70ms, 主要是内存分配耗时多了不少

14
nano上使用nvidia的解码例子,如何设置才能使得解码后的数据依旧在GPU端

15
培训信息 / 【在线培训预告】利用CUDA和cuDNN创建组件
« 于: 十二月 05, 2019, 12:12:41 pm »
  Subject : 使用 TensorRT 加速推理结果计算 -- 利用CUDA和cuDNN创建组件

            Webinar Date: 2019 年 12月12日, 星期四

Webinar Time: 晚 八点 – 九点半

Webinar Length: 1.5小时

 

             Body Content:

NVIDIA TensorRT是一个高性能深度学习推理平台。它包含深度学习推理优化器和提供低延迟和高通量的深度学习推理应用程序的运行时。使用TensorRT,您可以在主流框架下优化神经网络训练模型, 在保证高精度输出结果的同时校准低精度数据类型,并最终部署到超大型数据中心,嵌入式,或者汽车产品平台。

本次在线研讨会针对有模型训练知识背景的技术人员,将会介绍 TensorRT 6.0 的最新特性,以及如何利用CUDA和cuDNN创建新的组件。

 

通过本次在线研讨会,您可以获得以下内容:

l  TensorRT  6.0的性能特点

l  TensorRT  Plugin的实现方法

l  TensorRT  Plugin的开发方法细节

l  cuDNN的使用技巧

 

             Speaker:

 

 

何琨 (KEN HE)

NVIDIA开发者社区高级讲师

拥有 多 年 GPU及人工智能开发经验。在人工智能、计算 机视觉、高性能计算领域曾经独立完成过多个项目,并且在机器人和无 人机领域,有丰富的研发经验。曾针对图像识别,目标的检测与跟踪等 方 面 完成 多 种解 决 方案 , 作为主 要研 发 者 参与 GPU 版气 象 模式 GRAPES。

 

注册页面:https://info.nvidia.com/243733-reg.html

页: [1] 2 3 ... 8