机器学习和人工智能正极大地改变着企业的运营方式和人们的生活方式。TWIML AI 播客将机器学习和人工智能领域的顶尖思想和理念带给了一个广泛的、有影响力的社区,这个社区包括机器学习/人工智能研究人员、数据科学家、工程师以及技术娴熟的商业和 IT 领导者。主持人 Sam Charrington 是一位备受追捧的行业分析师、演讲者、评论员和思想领袖。涵盖的技术包括机器学习、人工智能、深度学习、自然语言处理、神经网络、分析学、计算机科
这是一个由萨姆·查林顿 Sam Charrington 主持的技术播客。萨姆·查林顿汇集了人工智能研究人员、数据科学家、工程师以及精通技术的业务和 IT 领导者的顶尖思想和想法。
Sam 在提出正确的问题方面表现出色,不可否认,他比大多数播客更好地完全理解和掌握人工智能概念。 他从不羞于为那些不被认可的小人物提供发言和分享知识的机会。 他出演的一些较受欢迎的嘉宾包括开复、格雷格·布罗克曼、约书亚·本吉奥和加里·马库斯。
播客节目标题:
下面是这些播客节目的中文翻译标题:
- 通过稀疏性实现深度学习性能的100倍提升,与Subutai Ahmad - #562
- 通过等周性理解鲁棒性的普适法则,与Sebastien Bubeck - #551
- 用AI生成算法加速智能,与Jeff Clune - #602
- 神经压缩的进展,与Auke Wiggers - #570
- 使用NetHack推进深度强化学习,与Tim Rocktäschel - #527
- 推进动手学习机器学习教育,与Sebastian Raschka - #565
- AI访问和包容性作为技术挑战,与Prem Natarajan - #658
- AI代理和数据集成:GPT与LLaMa,与Jerry Liu - #628
- 用于企业决策的大规模AI,与Rob Walker - #573
- 用于人道主义行动的AI,与Justin Spelhaug - TWiML Talk #226
- AI在电力和能源领域的应用,与Laurent Boinot - #683
- 摩根大通的AI研究,与Manuela Veloso - #371
- AI的感知、代理和灾难风险,与Yoshua Bengio - #654
- 大型语言模型擅长因果推理吗?,与Robert Osazuwa Ness - #638
- 大型语言模型被高估还是低估?,与Marti Hearst - #626
- 向量数据库是AI未来的数据平台吗?,与Ed Anuff - #664
- 在Shopify评估数据质量,与Wendy Foster - #592
- 评估开放AI模型的风险,与Sayash Kapoor - #675
- 使用对抗性机器学习攻击恶意软件,与Edward Raff - #529
- Hugging Face的大规模科学与嵌入式学习,与Thomas Wolf - #564
- 金融领域的BloombergGPT大型语言模型,与David Rosenberg - #639
- 脑启发的硬件和算法协同设计,与Melika Payvand - #585
- 在NLP领域建立深度技术创业公司,与Nasrin Mostafazadeh - #539
- 构建和部署真实世界的RAG应用程序,与Ram Sriharsha - #669
- LEGO的机器学习基础构建块,与Francesc Joan Riera - #533
- 使用Kubernetes和Kubeflow构建基础机器学习平台,与Ali Rodell - #595
- 使用Azure OpenAI构建LLM应用程序,与Jay Emery - #657
- 构建盲人AI代理的地图和空间意识,与Dhruv Batra - #629
- 构建公共利益技术,与Meredith Broussard - #552
- 在Stack Overflow建立技术社区,与Prashanth Chandrasekar - #526
- 公平性的因果观念及其后果,与Sharad Goel - #586
- Chronos:学习时间序列的语言,与Abdul Fatir Ansari - #685
- 强迫大型语言模型做和揭示(几乎)任何事,与Jonas Geiping - #678
- 使用深度强化学习控制聚变反应堆不稳定性,与Aza Jalalvand - #682
- 在ADP创建数据驱动文化,与Jack Berkowitz - #543
- 大胆尝试DAIR分布式AI研究,与Timnit Gebru - #568
- 用于计算机视觉的数据增强和优化架构,与Fatih Porikli - #635
- 机器学习中的数据负债,与D. Sculley - #574
- 数据科学的数据治理,与Adam Wood - #578
- 道德AI的数据权利、量化和治理,与Margaret Mitchell - #572
- 用于视觉理解的数据、系统和机器学习,与Cody Coleman - #660
- 精准农业的面向数据的零样本学习,与Dimitris Zermas - #615
- 深度学习在5G中的应用,与Joseph Soriaga - #525
- 深度学习、变压器和规模的后果,与Oriol Vinyals - #546
- 深度强化学习的统计悬崖边缘,与Rishabh Agarwal - #559
- 在高度监管环境中交付AI系统,与Miriam Friedel - #653
- 部署边缘和嵌入式AI系统,与Heather Gorr - #655
- 用机器学习设计新型能源材料,与Rafael Gomez-Bombarelli - #558
- 用于海洋学的可微编程,与Patrick Heimbach - #557
- ChatGPT在“思考”吗?一种认知神经科学视角,与Anna Ivanova - #620
- AI和AWS的娱乐化,与Mike Miller - #661
- 为AI模型提供能效星级评级,与Sasha Luccioni - #687
- 构建ML驱动的开发者优先搜索引擎,与Richard Socher - #582
- 在T-Mobile工程化生产级NLP系统,与Heather Nolis - #600
- 确保LLM在生产应用中的安全性,与Shreya Rajpal - #647
- 压缩感知中的等变先验,与Arash Behboodi - #584
- 生物学和医学中的可解释AI,与Su-In Lee - #642
- 探索大型语言模型与ChatGPT - #603
- 探索FastAI工具生态系统,与Hamel Husain - #532
- Facebook放弃面部识别。其他人是否也应该跟随?,与Luke Stark - #534
- 数据驱动AI的特征平台,与Mike Del Balso - #577
- 企业NLP的四个关键工具,与Yunyao Li - #537
- 全栈AI系统开发,与Murali Akula - #563
- 在CVPR 2024上分享高通AI研究的Gen AI at the Edge,与Fatih Porikli - #688
- 边缘生成AI,与Vinesh Sukumar - #623
- AWS的地理空间机器学习,与Kumar Chellapilla - #607
- GraphRAG:AI应用的知识图谱,与Kirk Marple - #681
- 分层和持续的强化学习,与Doina Precup - #567
- 在Redfin应用机器学习,与Akshat Kaul - #530
- 大型语言模型和生成AI如何变革科学,与Anima Anandkumar - #614
- 超图、单纯复合体和复杂系统的图表示,与Tina Eliassi-Rad - #547
- 通过神经网络分区进行超参数优化,与Christos Louizos - #627
- 无强化学习的逆强化学习,与Gokul Swamy - #643
- ChatGPT变得更差了吗?,与James Zou - #645
- Jupyter和ML工具的演变,与Brian Granger - #544
- 孩子们运行最有趣的实验:儿童中的因果学习,与Alison Gopnik - #548
- 用状态空间模型进行语言建模,与Dan Fu - #630
- 语言理解和大型语言模型,与Christopher Manning - #686
- 学习在深度神经网络中的记忆思考,与Andrea Banino - #528
- 学习变压器程序,与Dan Friedman - #667
- Live from TWIMLcon! 大型MLOps辩论:端到端ML平台 vs 专用工具 - #597
- Live from TWIMLcon! 你不是Facebook。为B2B用例架构MLOps,与Jacopo Tagliabue - #596
- 在LLM中本地化和编辑知识,与Peter Hase - #679
- GSK的机器学习,与Kim Branson - #536
- 用于地震地震学的机器学习,与Karianne Bergen - #554
- 管理数据标注操作的成功,与Audrey Smith - #583
- 高级ChatGPT提示的心理模型,与Riley Goodside - #652
- 大型语言建模的专家混合和趋势,与Irwan Bello - #569
- 用生成代理建模人类行为,与Joon Sung Park - #632
- 用循环神经网络和课程学习建模人类认知,与Kanaka Rajan - #524
- 人机协作模型,与Julie Shah - #538
- Mojo:为AI设计的超级Python,与Chris Lattner - #634
- 更多语言,较少标注,与Kate Saenko - #580
- 多设备、多用例优化,与Jeff Gehlhaar - #587
- 复杂文档理解的多模态深度学习,与Doug Burdick - #541
- 用于黑色素瘤检测的多任务学习,与Julianna Ianni - #531
- 大型语言模型的多模态和价值差距,与Sara Hooker - #651
- Hugging Face的多模态、多语言NLP,与John Bohannon和Douwe Kiela - #589
- Nightshade:用数据投毒对抗生成AI,与Ben Zhao - #668
- OLMo:训练开源大型语言模型所需的一切,与Akshita Bhagia - #674
- 走向机器人视觉,与Aljosa Osep - #581
- Hugging Face的开源生成AI,与Jeff Boudier - #624
- 使用DeepChem进行开源药物发现,与Bharath Ramsundar - #566
- 光流估计、全景分割和视觉变压器,与Fatih Porikli - #579
- 优化、机器学习和智能实验,与Michael McCourt - #545
- LLM应用的模式和中间件,与Kyle Roche - #659
- 图像生成AI的个性化,与Nataniel Ruiz - #648
- 用世界上最大的计算机芯片为AI提供动力,与Joel Hestness - #684
- 使用深度学习和可靠性工程进行预测性维护,与Shayan Mortazavi - #540
- 以原则为中心的AI,与Adrien Gaidon - #575
- Stable Diffusion和LLM的隐私与安全,与Nicholas Carlini - #618
- 计算机视觉中的隐私与公平性,与Alice Xiang - #637
- 用于自主商用航空的程序标注和数据扩展,与Cedric Cocaud - #601
- 质疑AI炒作,与Alex Hanna - #649
- 通过帮助注意头无所事事量化变压器,与Markus Nagel - #663
- Capital One的实时机器学习工作流,与Disha Singla - #606
- 用DocLLM推理复杂文档,与Armineh Nourbakhsh - #672
- Spotify的个性化强化学习,与Tony Jebara - #609
- reInvent Roundup 2021,与Bratin Saha - #542
- 生成时代的负责任AI,与Michael Kearns - #662
- 机器人灵巧度和协作,与Monroe Kennedy III - #619
- Runway Gen-2:视频创作的生成AI,与Anastasis Germanidis - #622
- 扩展BERT和GPT用于金融服务,与Jennifer Glore - #561
- 扩展多模态生成AI,与Luke Zettlemoyer - #650
- 服务卡片和机器学习治理,与Michael Kearns - #610
- Sim2Real和Optimus人形机器人,与Ken Goldberg - #599
- 用机器学习解决鸡尾酒会问题,与Jonathan Le Roux - #555
- Stable Diffusion与生成AI,与Emad Mostaque - #604
- 边缘的Stable Diffusion和LLM,与Jilei Hou - #633
- 研究机器智能,与Been Kim - #571
- 用机器学习支持非洲的粮食安全,与Catherine Nakalembe - #611
- 机器人学的合成数据生成,与Bill Vass - #588
- 用强化学习教大型语言模型推理,与Alex Havrilla - #680
- 进化人工智能的瓶颈优势,与David Ha - #535
- 企业LLM的格局,与Atul Deo - #640
- NLP领域的演变,与Oren Etzioni - #598
- 地面真相的谬误,与Shayan Mohanty - #576
- 改进迁移学习,与Hugo Larochelle - #631
- LLM中的训练数据局部性和链式思维,与Ben Prystawski - #673
- Capital One在表格数据上的变压器,与Bayan Bruss - #591
- 大规模图上的变压器,与Bayan Bruss - #641
- 计算机视觉趋势,与Georgia Gkioxari - #549
- 深度强化学习趋势,与Kamyar Azizzadenesheli - #560
- 机器学习与深度学习的趋势,与Zachary Lipton - #556
- 自然语言处理的趋势,与John Bohannon - #550
- 理解AI对社会差异的影响,与Vinodkumar Prabhakaran - #617
- 用机器学习理解集体昆虫交流,与Orit Peleg - #590
- 统一视觉和语言模型,与Mohit Bansal - #636
- V-JEPA:非生成架构的AI推理,与Mido Assran - #677
- 视频作为AI推理的通用接口,与Sherry Yang - #676
- 视觉生成AI生态系统挑战,与Richard Zhang - #656
- 弱监督因果表示学习,与Johann Brehmer - #605
- LLM推理的下一步是什么,与Roland Memisevic - #646
- 为什么深度网络和大脑学习相似的特征,与Sophia Sanborn - #644
- ChatGPT会抢走我的工作吗? - #608
- AI趋势2023:因果关系与大型语言模型的影响,与Robert Osazuwa Ness - #616
- AI趋势2023:自然语言处理 - ChatGPT、GPT-4与前沿研究,与Sameer Singh - #613
- AI趋势2023:强化学习 - RLHF、机器人预训练与离线强化学习,与Sergey Levine - #612
- AI趋势2024:计算机视觉,与Naila Murray - #665
- AI趋势2024:机器学习与深度学习,与Thomas Dietterich - #666
- AI趋势2024:大型语言模型时代的强化学习,与Kamyar Azizzadenesheli - #670
- AI驱动的对等编程,与Vasi Philomin - #594
- PayPal的应用AI/ML研究,与Vidyut Naware - #593
- 大型语言模型中的新兴行为是一种幻觉吗?,与Sanmi Koyejo - #671
- 大型语言模型是通用人工智能的途径吗?,与Ben Goertzel - #625