keras 中模型的保存及重用

深度學習中如何保存最佳模型,如何重用已經保存的模型?本文主要介紹Keras 保存及重用模型的方法 保存模型 如下,我們預定義保存的 1 2 3 4 5 6 7 8 9 10 11 12 13 14 from #

Read More »

Python2 Python3的各种冲突及解决方法

本文主要记录Python2 Python3的各种冲突及解决方法。 Opencv在Python3下的安装 目前opencv对于Python2.7支持不错,我折腾了许久才弄好Python3下的安装方法,最简单的既是利用Anaconda来安装,步骤如 安装Anaconda下载对应平台的安装包Download Anaconda Now! | Continuum 下载完毕,用终端命令安装刚下的包bash Anaconda3-4.3.0-MacOSX-x86_64.sh 命令行会询问是否需要添加PATH如.bash_profile >> 填 yes 刷新 cd && source .bash_profile

Read More »

创建双击可执行的sh脚本

在Mac&Linux上创建双击可执行的sh脚本的方法。 Mac 首先创建测试脚本touch clickexe.shopen -e clickexe.sh在脚本中输入内容echo "hello world" 再执行命令chmod +x clickexe.sh 然后在取景器右键单击文件,并选择“get info”,然后选择“Open with” 这里你可以选择你想要的文件执行到应用程序中,为了能够选择你需要从“推荐应用”到“所有应用程序”选中“Terminal”即可。 Linux 在Ubuntu中,自从13.04以后,双击sh脚本文件就已经默认是geidt打开了,要想运行,从文件管理器–>文件–>首选项–>行为–>可执行文件 有三个选项,默认是第二个,如果想要直接运行,选第一个,而每次询问就是弹出一个窗口,问你是运行,在终端中运行,还是用gedit查看。 记得在脚本文件右键–>属性–>权限:允许以程序执行文件 参考自

Read More »

Python PATH是怎么一回事?从“import pyspark”报错说起

为何import pyspark报错?让我们从捋一捋Python的环境变量PATH开始! Spark装好后直接在代码开头import pyspark不出意外是要报错的,没有这个模块?当然不是,只是python找不到这个地址而已,有很quick and dirty的解决方法,就是利用包findspark,只要在开头 12 import findsparkfindspark.init() 接下来即可顺利import pyspark,不过这个在“import其他依赖之前先运行函数”实在是有碍观赏性。。。什么是“优雅的解决方法”呢?别急,我们先来看看import findspark做了什么吧: 12345678910111213141516 # ensure SPARK_HOME is definedos.environ['SPARK_HOME'] = spark_home#

Read More »

Ubuntu16.04 固定IP与设置DNS

设置Hadoop集群的第一步很可能就是设置固定IP于DNS,而网上这一做法由于Ubuntu版本及桌面版服务器版的不同导致残差不齐,本文记录一下Ubuntu16.04在非图形界面固定IP与设置DNS的过程。 Ubuntu16.04 固定IP Step-One【Ubuntu-server不需,跳过即可】 123 sudo vim /etc/NetworkManager/NetworkManager.conf# 将`managed=false`修改成`managed=true`sudo reboot Step-Two 如下 12 # 修改配置文件sudo vim /etc/network/interfaces 改为 1234567891011 #

Read More »