用Tensorflow让神经网络自动创造音乐 – Charlotte77 – 博客园

前几天看到一个有意思的分享,大意是讲如何用Tensorflow教神经网络自动创造音乐。听起来好好玩有木有!作为一个Coldplay死忠粉,第一想法就是自动生成一个类似Coldplay曲风的音乐,于是,开始跟着Github上的教程(项目的名称:Project Magenta)一步一步做,弄了三天,最后的生成的音乐在这里(如果有人能告诉我怎么在博客里插入音乐请赶快联系我!谢谢!)

 

 

 

  • 第一首:Magenta Melody Result1.mp3

 

 

http://yun.baidu.com/share/link?shareid=1799925478&uk=840708891

 

 

  • 第二首:Magenta Melody Result2.mp3

 

 

http://yun.baidu.com/share/link?shareid=3718079494&uk=840708891

 

这两段音乐是我生成的十几个音乐中听起来还不错的,虽然还是有点怪,但是至少有节奏,嘿嘿。下面来说一下是怎么做的:

 

1.首先下载Project Magenta

1 git clone https://github.com/tensorflow/magenta.git

 

  2.安装需要的工具:

在这里(https://www.tensorflow.org/versions/r0.9/get_started/os_setup.html)安装python、bazel和Tensorflow

 我在安装bazel的时候一直出现“Segmentation fault:11”的错误,google了很多解决方法后发现是gcc的安装版本问题,如果你是mac用户,下载了xcode,并不代表你安装了gcc,还必须安装command line tools,如果安装成功,在linux里输入“gcc –version”会出现相应的版本信息,如果没有,就说明安装失败。如果安装失败了,用下载好的bazel再输入“bazel install gcc”,下载完检测一下gcc -v,如果依然是”Segmentation fault:11″错误,恭喜你,遇到和我一样的错误了,google了半天后发现发现了这个:

so,Apple现在已经不用gcc了,改为LLVM。以后要用”clang、clang++”来代替gcc。如果你输入gcc -v,显示”Segmentation fault:11″,不妨输入一下”clang -v”,看一下有没有对应的版本信息。如果有就代表你下载成功了。但是没有完,还有最后一步,把指向gcc的链接改到clang。输入”which gcc”和”which clang”,可以看到你的gcc和clang的位置,然后改一下软链接:

复制代码
<span style="color: #008080;">1</span> cd /usr/local/<span style="color: #000000;">bin</span>

2 sudo mv gcc gcc_OLD

3 sudo ln -s /usr/bin/clang /usr/local/bin/gcc

4 gcc –v

5 Apple LLVM version 6.1.0 (clang-602.0.53) (based on LLVM 3.6.0svn)

6 Target: x86_64-apple-darwin14.5.0

7 Thread model: posix

复制代码

这样就大功告成了!哈哈!不要问我为什么花这么大篇幅写这个看似无关紧要的东西,因为我被这玩意儿折磨了两天!!弄完这个才花了三天结果搞个这个居然就花了两天!!哦,对了,如果你看到这儿不知道bazel是干啥的,简单的说就是一个编译工具,相当于pip的intsall。

现在用bazel来测试一下能不能顺利运行:

1 bazel test //magenta:all

 

 注:如果全部测试成功,很好。如果出现这个错误:

复制代码
<span style="color: #008080;"> 1</span> INFO: Found 5 targets <span style="color: #0000ff;">and</span> 6<span style="color: #000000;"> test targets...</span>

2 INFO: Elapsed time: 0.427s, Critical Path: 0.00s

3 //magenta:basic_one_hot_encoder_test (cached) PASSED in 3.7s

4 //magenta:convert_midi_dir_to_note_sequences_test (cached) PASSED in 2.3s

5 //magenta:melodies_lib_test (cached) PASSED in 3.5s

6 //magenta:midi_io_test (cached) PASSED in 5.5s

7 //magenta:note_sequence_io_test (cached) PASSED in 3.5s

8 //magenta:sequence_to_melodies_test (cached) PASSED in 40.2s

9

10 Executed 0 out of 6 tests: 6 tests pass.
11 There were tests whose specified size is too big. Use the –test_verbose_timeout_warnings command line option to see which ones these are.

复制代码

 

恭喜你,又犯了和我同样的错误:)这个错误是说测试文件太大了,不能一下子全部测试(我16g的内存还不够吗 = =),所以你可以跟我一样手动测试,以其中一个举例:

 

<span style="color: #008080;">1</span> &gt;&gt;&gt;bazel-bin/magenta/<span style="color: #000000;">basic_one_hot_encoder_test</span>

2 >>>———————————————————————-

3 Ran 5 tests in 0.074s

4

5 OK

 

把上述六个文件依次测试一下,成功请看下一步。

 

 3.创建你的旋律数据集

和机器学习一样,我们得先输入一定的数据让它去训练,这里的训练数据可以自己下载喜欢的音乐,不过Magenta不能直接读取mp3文件,只能读取MIDI文件(mp3太大了,一个10M左右的mp3格式音乐可以转换成100k左右的midi文件)。当然,转换成midi格式的方法很多,我搜集了一个超好用的网址可以在线转:Convert Tool

读取MIDI文件后,Magenta要把MIDI文件转化成Sequence文件才能进行训练

复制代码
<span style="color: #008000;">#</span><span style="color: #008000;">#创建旋律数据库</span>

MIDI_DIRECTORY=/Users/shelter/magenta/magenta/music/train #这里换成你的文件路径就行了

SEQUENCES_TFRECORD=/tmp/notesequences.tfrecord

bazel run //magenta:convert_midi_dir_to_note_sequences — \

–midi_dir=$MIDI_DIRECTORY \

–output_file=$SEQUENCES_TFRECORD \

–recursive

复制代码

 

然后再从这些Sequence序列里提取出旋律:

复制代码
<span style="color: #008080;"> 1</span> <span style="color: #008000;">#</span><span style="color: #008000;">#从Sequences中提取旋律</span>

2 SEQUENCES_TFRECORD=/tmp/notesequences.tfrecord

3 TRAIN_DATA=/tmp/training_melodies.tfrecord #生成的训练文件地址

4 EVAL_DATA=/tmp/evaluation_melodies.tfrecord

5 EVAL_RATIO=0.10 ENCODER=basic_one_hot_encoder

6 bazel run //magenta/models:basic_rnn_create_dataset — \

7 –input=$SEQUENCES_TFRECORD \

8 –train_output=$TRAIN_DATA \

9 –eval_output=$EVAL_DATA \

10 –eval_ratio=$EVAL_RATIO \

11 –encoder=$ENCODER

复制代码

ok,这里我们的数据处理就完成了,生成的训练文件在”/tmp/training_melodies.tfrecord”里

 

 4.训练神经网络模型

训练数据生成后就可以训练模型了,这里使用的是RNN模型:

复制代码
<span style="color: #008080;">1</span> <span style="color: #008000;">#</span><span style="color: #008000;">#训练神经网络模型</span>

2 #首先compile basic_rnn工具

3 bazel build //magenta/models:basic_rnn_train

4

5 #训练模型,其中“rnn_layer_size”是神经网络的层数,可以自定义

6 ./bazel-bin/magenta/models/basic_rnn_train –experiment_run_dir=/tmp/basic_rnn/run1 –sequence_example_file=$TRAIN_DATA –eval=false –hparams={“rnn_layer_sizes”:[50]} –num_training_steps=1000

复制代码

 

5.生成测试的旋律

模型那一步非常非常耗时间,Github里设置的是20000次迭代,差点把我的电脑跑烧起来 = =,你可以根据实际硬件情况设置迭代次数。测试旋律和训练的旋律一样,都是midi文件,我这里选取的是Katy Perry的Peacock(小黄歌 = =,想看一下用Coldplay的训练数据在katy Perry上测试的结果是啥)

复制代码
<span style="color: #008080;"> 1</span> <span style="color: #008000;">#</span><span style="color: #008000;">#生成旋律</span>

2 #指定测试旋律的文件地址

3 PRIMER_PATH=/Users/shelter/magenta/magenta/music/coldplay/KatyPerryPeacock.mid #注意这里是绝对地址,只能指定一首歌

4 bazel run //magenta/models:basic_rnn_generate — \

5 –experiment_run_dir=/tmp/basic_rnn/run1 \

6 –hparams={“rnn_layer_sizes”:[50]} \

7 –primer_midi=$PRIMER_PATH \

8 –output_dir=/tmp/basic_rnn_3 \

9 –num_steps=64 \

10 –num_outputs=16

复制代码

你可以用 “bazel test //magenta:all”查看结果,在 http://localhost:6006 里查看可视化结果,包含收敛过程,accuracy等。

最后生成的旋律就是开头百度云里的文件了。还有另外一个是用轻音乐测试的,效果也不错。

 

 总结:

1.一开始我的训练次数是20000次,到1000次的时候算法发散了,loss值由本来从20几万下降到2000多左右然后突然上升到16000左右,accuracy也下降了,所以就退出了,把迭代次数换成1000次训练。训练结束的时候算法还没有收敛,但是我想快点看到结果,而且电脑跑的太慢了,就直接拿来用了。如果你有GPU或者愿意等个几天跑程序,可以把迭代次数设置的大一点,等算法收敛后再进行测试。模型训练的好坏直接决定最后得到的音乐的好听程度,所以最好等算法收敛后在进行测试。我测试的世界各文件中很多都像乱弹的。

2.这个项目刚开始不久,有一个论坛专门给大家交流学习的心得以及提问题,点这里。上面的注释是我遇到的问题,如果遇到了新的问题,可以在论坛上发帖求助。我看到有的人生成的音乐很有那种诡异的哥特风哈哈。

3.这个项目背后的具体原理我没有写,Github上写的很清楚,可以参考这里

4.生成后的音乐可以根据自己的需要加上节拍,应该会好听一点~

 

总之,现在开始做吧,很有趣的!~

来源URL:http://www.cnblogs.com/charlotte77/p/5664523.html