本文主要是介绍ollama + autogen排雷,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
语法:<abc>代表参数,实际输入为具体的名字,不需要输入<>
注意:当前雷可能随着版本迭代更新掉
1、litellm -model ollama/<model>
启动后的url为:http://0.0.0.0:<port>,实际调用需要将"0.0.0.0"替换为"localhost",否则回报错误"oserror winerror 10049在其上下文中该请求的地址无效"
2、autogen.UserProxyAgent在非docker环境下,需要增加参数
code_execution_config={"use_docker":False}
否则,会报错。前半句是问题,后半句是建议的解决方法,这里采用的是第二种
Code execution is set to be run in docker (default behaviour) but docker is not running. The options available are: - Make sure docker is running (advised approach for code execution) - Set "use_docker": False in code_execution_config - Set AUTOGEN_USE_DOCKER to "0/False/no" in your environment variables
这篇关于ollama + autogen排雷的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!