- 🚀 Apple Search Ads 助力 App Store 应用推广
- 🌟 苹果推出“专为企业打造”计划,助力小企业发展
- 🌟 如何在 Mac 上卸载应用程序?
- 🌟 Swift 中的 Lazy Vars 是什么?
- 🌟微软发布 Phi-3 系列紧凑语言模型
- 🎉 GitHub Copilot 指标 API 现已进入公测
- 🌟 LLaMA-Factory: Fine-tuning a large language model can be easy as…
Apple News
🚀 Apple Search Ads 助力 App Store 应用推广
来源:Latest News - Apple Developer
发布时间:2024-04-24 00:00:52 Apple Search Ads 帮助开发者在 App Store 上推广应用或游戏,提升下载量、留存率和广告支出回报率。文章介绍了如何使用该服务,包括注册免费的 Apple Search Ads 认证课程。
🌟 苹果推出“专为企业打造”计划,助力小企业发展
来源:Apple Newsroom
发布时间:2024-04-24 20:59:18
苹果公司推出“专为企业打造”计划,为小企业主和企业家提供免费机会,学习如何利用苹果产品和服务支持他们的业务增长和成功。该计划将于 5 月开始,由小企业主领导,重点介绍这些组织如何使用 iPhone、iPad 和 Mac 等苹果产品,以及 Apple Business Connect、Apple Business Essentials 和 iPhone 上的 Tap to Pay 等资源来建立业务、以新的方式接触客户并推动其组织向前发展。
🌟 如何在 Mac 上卸载应用程序?
来源:OS X Daily
发布时间:2024-04-24 01:35:37
Mac上卸载应用程序非常简单,有几种方法可以从 Mac 计算机中移除应用程序。最方便的方法之一是使用“系统设置”应用程序。只需启动“系统设置”,然后单击边栏中的“应用程序”。您将看到已安装应用程序的列表。要卸载应用程序,只需单击它,然后单击“卸载”按钮。
iOS Blog
🌟 Swift 中的 Lazy Vars 是什么?
来源:Donny Wals
发布时间:2024-04-24 03:01:51
Lazy Vars 是一种延迟计算属性,仅在第一次访问时计算一次。它适用于计算成本高昂且不确定是否需要访问的属性。Lazy Vars 通过闭包初始化,避免了不必要的计算,提高了性能。
Tech News
🌟微软发布 Phi-3 系列紧凑语言模型
来源:AI News
发布时间:2024-04-24 21:44:28
微软发布了 Phi-3 系列开放的小型语言模型 (SLM),宣称它们是同类产品中最强大且最具成本效益的。微软研究人员开发的创新训练方法使 Phi-3 模型在语言、编码和数学基准测试中优于更大的模型。
🎉 GitHub Copilot 指标 API 现已进入公测
来源:Changelogs Archive - The GitHub Blog
发布时间:2024-04-24 00:32:03
GitHub Copilot 指标 API 现已进入公测,该 API 可让您跟踪和分析 Copilot 的使用情况,从而优化您的开发流程。
Daily Code
🌟 LLaMA-Factory: Fine-tuning a large language model can be easy as…
来源:Trending repositories on GitHub today · GitHub
发布时间:2024-04-25 08:22:43
This repository provides a unified framework for fine-tuning various large language models (LLMs), including LLaMA, Mistral, Mixtral-MoE, Qwen, Yi, Gemma, Baichuan, ChatGLM, Phi, etc. It supports a wide range of training approaches, including (continuous) pre-training, supervised fine-tuning, reward modeling, PPO, DPO, and ORPO. The framework also offers scalable resources, such as 32-bit full-tuning, 16-bit freeze-tuning, 16-bit LoRA, and 2/4/8-bit QLoRA via AQLM/AWQ/GPTQ/LLM.int8. Additionally, it includes advanced algorithms like GaLore, BAdam, DoRA, LongLoRA, LLaMA Pro, Mixture-of-Depths, LoRA+, LoftQ, and Agent tuning. Practical tricks like FlashAttention-2, Unsloth, RoPE scaling, NEFTune, and rsLoRA are also integrated. The framework provides experiment monitors like LlamaBoard, TensorBoard, Wandb, MLflow, etc. for tracking progress. Furthermore, it enables faster inference through OpenAI-style API, Gradio UI, and CLI with vLLM worker.