首页 最新 热门 推荐

  • 首页
  • 最新
  • 热门
  • 推荐
2025年6月20日 星期五 3:16pm

玩转ollama上下文长度:从2048到32k的num_ctx魔改指南

  • 25-02-20 15:40
  • 2177
  • 10276
blog.csdn.net

文章目录

    • 问题背景:这个2048到底卡住了谁的脖子?
      • 当大模型遇上小水管
      • num_ctx参数的前世今生
    • 一劳永逸的解决方案:修改模型参数
      • 文件手术详解
      • 模型重建与验证
    • 临时解决方案:灵活应对不同场景
      • 临时抱佛脚之命令行生效
      • 临时抱佛脚之API生效
    • 那些年我们踩过的坑
      • 没啥卵用之OpenAI API传参
      • 没啥卵用之OpenAI 问答传参
    • 原理深挖:ollama的参数管理体系


?进入大模型应用与实战专栏 | ?查看更多专栏内容


在这里插入图片描述

问题背景:这个2048到底卡住了谁的脖子?

当大模型遇上小水管

在使用ollama做大模型问答时,相信不少朋友都遇到过这样的尴尬场景:当你信心满满地输入一篇万字长文要求总结时,模型突然化身复读机:“抱歉,这个问题超出了我的处理能力”。这种时候请先别怀疑自己的姿势水平,问题很可能出在ollama那个丧心病狂的默认参数设定上!

num_ctx参数的前世今生

这个罪魁祸首num_ctx参数,全称Number of Context Tokens,直接控制着模型的上下

注:本文转载自blog.csdn.net的羊城迷鹿的文章"https://wangjn.blog.csdn.net/article/details/140846446"。版权归原作者所有,此博客不拥有其著作权,亦不承担相应法律责任。如有侵权,请联系我们删除。
复制链接
复制链接
相关推荐
发表评论
登录后才能发表评论和回复 注册

/ 登录

评论记录:

未查询到任何数据!
回复评论:

分类栏目

后端 (14832) 前端 (14280) 移动开发 (3760) 编程语言 (3851) Java (3904) Python (3298) 人工智能 (10119) AIGC (2810) 大数据 (3499) 数据库 (3945) 数据结构与算法 (3757) 音视频 (2669) 云原生 (3145) 云平台 (2965) 前沿技术 (2993) 开源 (2160) 小程序 (2860) 运维 (2533) 服务器 (2698) 操作系统 (2325) 硬件开发 (2492) 嵌入式 (2955) 微软技术 (2769) 软件工程 (2056) 测试 (2865) 网络空间安全 (2948) 网络与通信 (2797) 用户体验设计 (2592) 学习和成长 (2593) 搜索 (2744) 开发工具 (7108) 游戏 (2829) HarmonyOS (2935) 区块链 (2782) 数学 (3112) 3C硬件 (2759) 资讯 (2909) Android (4709) iOS (1850) 代码人生 (3043) 阅读 (2841)

热门文章

101
推荐
关于我们 隐私政策 免责声明 联系我们
Copyright © 2020-2025 蚁人论坛 (iYenn.com) All Rights Reserved.
Scroll to Top