利用Azure Cognitive Services中的Face API,哪怕没有任何深入的 AI 知识,哪怕没有熟练的编程技巧,只需要简单的几十行代码,就能够实现有趣的人脸识别。
前文介绍了人脸API,但没有一个完整的功能实现,各个功能的API始终如散开的珍珠一样,不能串成珠链。到底这套API是如何工作的呢?Person、Person Group、FaceList、Face这些不同的对象是怎么发生联系的呢? 于是,我决定写一个相对完整的简单程序,完成一个对人脸进行识别的功能。
人脸API是Azure上AI及认知服务的一项,应该是从计算机视觉分出来的吧,针对人脸的特点单独做了特定的人工智能机器学习及API封装。由于是基于Azure的云端服务,所以针对人脸的一些功能封装的很好,只需要使用HTTP的几类方法 (GET \ PUT\ POST\ PATCH\ DELETE) 提供数据然后调用即可。
不论是前期调研还是定期维护巡检,经常性地需要很快了解Exchange的整体大概情况。懒得在ECP里逐个点开看,也懒得一条一条输入命令,所以花了点时间,写了个收集Exchange信息的PowerShell的脚本。 用VS Code写PowerShell脚本也挺舒服的,除了暂时不支持特定Module的提示。估计后续会有人写吧。另外就是需要
看,我们确实没有写一个字的代码,但是完成了分析数据实现“啤酒和尿布”这件事情。
就在不久之前,Azure发布了基于位置的服务(LBS, Location Based Service)。这个服务归属在Azure IoT服务类别下,猜测目的是便于提供有定位、导航和路径规划的IoT解决方案。LBS这个词你肯定不会陌生,因为你用的很多应用都是用了LBS的服务,从饿了么到陌陌,从小黄车到支付宝红包… 在Azure里启用LB
在前面的随笔里,我记录了如何在Azure Bot Services中运行一个对话机器人,并且利用在线的代码编辑器和在线的测试验证了我们给机器人提供的提问/回答内容。 可是,机器人不能只通过Azure里或QnA Maker站点里的测试页面访问吧?最终我们肯定是要让机器人在很多对话场景来使用的。因此,除了在代码内直接调用机器人之外,微软还
Copyright © 2005-2023 51CTO.COM 版权所有 京ICP证060544号