YGben

WWDC 2017


撸一遍 WWDC 2017

六月,不只是时间。WWDC 2017 如期举行。

有必要跟着苹果大大撸一遍看点,以便日后方便学习。

完整视频在这里 没事看一看,还能练英语,哈哈。

说说我感兴趣的几个点

Core ML

  • 阅读官方文档
    个人理解:苹果针对机器学习出款的一款SDK,作用是使机器学习模型融入App里。
    TensorFlow是Google出品的机器智能开源软件包。这里一篇写的很好。
    通俗讲:TensorFlow 是开发机器学习模型的。类似的还有caffe,scikit-learn是谷歌之前的机器学习框架。

苹果控制着终端和iOS系统,拥有Core ML ,就会使App拥有机器学习的“魔力”。

  • Core ML 支持经过什么样培训的机器模型呢?
  • 深度神经网络
  • 循环神经网络
  • 卷积神经网络
  • 支持向机量
  • 树集成
  • 线性模型

听过没听过的都支持,看起来挺全。训练的模型可以通过转化为Core ML model。

ARKit

同 Core ML 一样,也是iOS11 新的SDK。

  • 官方文档
    个人理解 :利用iOS系统自身的相机和手势等开发出的针对增强现实(AR)的SDK。以后可以运用游戏或有需求的App中。这里学习需要2D&& 3D图形图像基础。AR场景的内容可以通过SceneKit&& SpriteKit来创建。最后通过ARkit完成增强现实体验的工作。

The largest AR platform in the world.

Vision

  • 官方文档 其实这些官方文档网址都在一个目录下。
    个人理解: Vision 是经过苹果训练的针对人脸识别,图像或视频分类和识别的SDK。简书上 @张嘉夫 翻译了个例子,可以参考学习,本来这方面资料少,更多要看国外的翻译。

没有涉及硬件部分,全是iOS11 的新特性。其中UIKit也有部分更新,参考 Danny’s Dream

感谢这些素不相识的博主!