【开源数据下载全步骤】利用Pytorch下载开源数据到本地,以Speech Command为例

背景

开源数据来练练手,虽然可以直接通过pytorch或TensorFlow加载使用,但感觉太麻烦了,所以想直接下载到本地使用。上网直接搜数据集没有那种直接下载的链接,最后发现可以直接通过pytorch或是TensorFlow下载。下面以pytorch下载Speech Command数据集为例。

下载方法介绍(可直接看最后的下载代码)

1、找到对应数据的页面

Speech Command数据集

 拖到下面的Dataset Loader,根据需要选择对应的下载路径。本例使用pytorch。

【开源数据下载全步骤】利用Pytorch下载开源数据到本地,以Speech Command为例

 2、找到对应的代码仓

【开源数据下载全步骤】利用Pytorch下载开源数据到本地,以Speech Command为例

root (str or Path) – 
Path to the directory where the dataset is found or downloaded.

url (str, optional) – 
The URL to download the dataset from, or the type of the dataset to download. 
Allowed type values are "speech_commands_v0.01" and "speech_commands_v0.02" 
(default: "speech_commands_v0.02")

folder_in_archive (str, optional) – 
The top-level directory of the dataset. 
(default: "SpeechCommands")

download (bool, optional) – 
Whether to download the dataset if it is not found at root path. 
(default: False).

subset (str or None, optional) – 
Select a subset of the dataset [None, “training”, “validation”, “testing”]. 
None means the whole dataset. 
“validation” and “testing” are defined in “validation_list.txt” and “testing_list.txt”, respectively, and “training” is the rest. 
Details for the files “validation_list.txt” and “testing_list.txt” are explained in the README of the dataset and in the introduction of Section 7 of the original paper and its reference 12. 
(Default: None)

根据上面所说的调用,即可下载

下载代码

下载数据
from torchaudio import datasets

datasets.SPEECHCOMMANDS(
    root="./data",                         # 你保存数据的路径
    url = 'speech_commands_v0.02',         # 下载数据版本URL
    folder_in_archive = 'SpeechCommands',  
    download = True                        # 这个记得选True 
)

然后就等下载就行了(要等一段时间,不行就科学上网)

【开源数据下载全步骤】利用Pytorch下载开源数据到本地,以Speech Command为例

 

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
上一篇 2022年6月1日 上午11:11
下一篇 2022年6月1日 上午11:13

相关推荐

本站注重文章个人版权,不会主动收集付费或者带有商业版权的文章,如果出现侵权情况只可能是作者后期更改了版权声明,如果出现这种情况请主动联系我们,我们看到会在第一时间删除!本站专注于人工智能高质量优质文章收集,方便各位学者快速找到学习资源,本站收集的文章都会附上文章出处,如果不愿意分享到本平台,我们会第一时间删除!