自从去年OpenAI高调发布ChatGPT,把人工智能带入20时代以来,虽然我国自己的大模型发展得好不热闹,但依然不得不正视与国际一线公司之间的差距。而作为一名身在中国大陆的AI研究者,却很难方便地
read more大家好,我是人月聊IT。今天准备结合一个简单的PPT材料,再和大家分享一下GPT和大语言模型涉及到的RAG增强检索和自训练微调方面的一些实践思考。我个人的一些思考不会涉及到太细的一些技术实现,更多是结
read more自从24年2月以来在AI领域又连续出了很多重磅的新闻。我们没有蹭热点来对它们做跟踪和评述,一方面是因为目前正在紧锣密鼓的准备Infinity第一个release版本的开发,另一方面,在过去的
read more❝解决检索增强生成的核心挑战原文链接:https:towardsdatasciencecom12-rag-pain-points-and-proposed-solutions-43709939
read more“三大顶会公众号一大早就发了Grok,今天就不蹭热点了。https:divbeehiivcompadvanced-rag-series-generation-evaluation生成虽然召
read more对大量文本数据的语料库进行大型语言模型(LLMs)的预训练已经成为一种标准范式。当将这些LLMs用于许多下游应用时,通常还会通过基于RAG的提示或微调,将新知识(例如,时效性新闻或私有领域知识)额外融
read more