本书介绍如何使用代码(.m与.mlx文件)开发图形用户界面(GUI),讲解基于figure函数的uicontrol、容器、坐标区、常用控件、图窗工具、检测控件、对话框和通知,基于uifigure函数的对话框和通知,以及布局函数、控制流函数、App 数据和预设函数等内容。
"《AI Agent开发与应用:基于大模型的智能体构建》详尽地阐述智能体的基础理论、开发工具以及不同层次的开发方法,通过融合自然语言理解、多轮对话和任务自动化技术,为读者提供从理论到实践的全方位指导,旨在帮助读者构建高效的智能体。《AI Agent开发与应用:基于大模型的智能体构建》分为3个部分,共12章。第1部分(第1~5章)深入解析智能体的工作原理及开发所需的工具链,包括智能体的定义、类型及其与大语言模型(LLM)的关系,探讨智能体框架结构和核心模块的设计,并介绍LangChain和Llam
除了构图、用光等因素,后期对于摄影作品的完美呈现也是至关重要的。本书从人像摄影后期的基础照片格式和Adobe Camera Raw入门开始介绍,进而讲解了在对人像照片进行精修之前要掌握的选片技巧与人物五官常识、Photoshop人像摄影后期处理基础知识、借助AI快速实现人像精修、修瑕疵与磨皮技巧、人像肤色与画面调色技巧,以及人物五官、轮廓、身材优化等内容,之后还分享了提升人像照片表现力及调色的高级技巧。本书内容由浅入深,按一页一个知识点的方式编排,让读者的学习变得更
本书从技术演进视角揭示云计算与微服务的本质,通过分析与论述, 以理服人, 以例服人。针对云计算涉及问题广, 技术体系庞大, 产品和工具众多这一情形, 从中提炼出资源共享这一根本问题。围绕资源共享的不断深化, 紧扣基本原理和基本准则, 以通俗易懂的方式揭示云计算与微服务的真面目。本书共6章, 探索技术演进背后的动因, 追踪业界最新技术及其发展趋势, 展示求解方案的优美性和艺术性, 帮助读者感悟云计算与微服务的内涵, 体会其中的精妙之处, 灵活应对IT技术发展与变迁所带来的挑战。
"《LangChain核心技术与LLM项目实践》全面系统地介绍了LangChain的主要功能模块及具体应用,深入探讨了LangChain在企业应用实践中的深度开发、技术优化及其核心技术。《LangChain核心技术与LLM项目实践》共12章,从大语言模型的基础知识入手,涵盖任务链的设计、内存模块的管理、表达式语言的使用、Agent系统的实现、回调机制、模型I/O与数据检索等方面的内容,并通过代码示例和应用场景,逐步引导读者掌握模型优化、并发处理和多级任务链设计等高级技术,最后,从需求分析、架构设
本书涵盖从Rust语言入门到Rust Web开发实战所需的核心知识、方法和技巧,共4篇。第1篇Rust 基础知识,包括2章:Rust入门、Rust基础。详细介绍Rust的基础语法,即使没有Rust语言基础的读者也可以无障碍阅读。第2篇Rust Web基础入门,包括3章:Rust Web入门、处理Web请求和响应、用Rust访问数据库。本篇帮助读者快速掌握用Rust语言进行Web开发的基础技术。第3篇Rust Web进阶提高,包括2章:Rust Socket编程、Rust文件处理。本篇帮助读
本书讲解 Photoshop CC在平面设计中的各种应用,主要内容包括 Photoshop 与平面设计的基础知识,Photoshop 的各项功能与工具,以及 Photoshop 平面设计的综合实战。本书理论与实践紧密结合,以课前预习帮助读者理解课堂内容、培养学习兴趣,以课堂案例带动知识点的讲解,每个案例配有详细的图文操作说明及配套操作视频,能够全方位展示使用 Photoshop 进行平面设计的具体过程。
本书以SQL操作为基础,专注于数据分析的具体应用。主要内容包括:数据库入门、数据表基本操作、MySQL函数、数据基础查询、数据高级查询、数据表更新、视图、索引、存储过程、数据库备份与恢复、数据库性能优化,以及实战案例等。
"《Transformer深度解析与NLP应用开发》系统解析Transformer的核心原理,从理论到实践,帮助读者全面掌握其在语言模型中的应用,并通过丰富案例剖析技术细节。《Transformer深度解析与NLP应用开发》共12章,内容涵盖Transformer模型的架构原理、自注意力机制及其相对于传统方法的优势,并详细剖析BERT、GPT等经典衍生模型的应用。书中围绕数据预处理、文本分类、序列标注、文本生成、多语言模型等核心任务,结合迁移学习、微调与优化技术,展示Transformer在语义
"《从零构建大模型:算法、训练与微调》是一本系统且实用的大模型构建指南,旨在引领读者从基础知识起步,逐步深入探索大模型的算法原理、训练方法及微调技术。《从零构建大模型:算法、训练与微调》共12章,涵盖了Transformer模型的基础理论,如Seq2Seq模型、分词、嵌入层和自注意力机制等关键概念;并深入剖析了GPT模型的核心实现与文本生成过程,以及BERT模型的预训练和微调技术。同时,也对ViT(视觉Transformer)模型的架构、训练方法,以及高阶微调策略如Adapter Tuning和