fly51fly / aicoco

“爱可可-爱生活”微博内容精选

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

爱可可微博热门分享(1.22)

fly51fly opened this issue · comments

No 1. OpenGFW:Linux 上灵活、易用、开源的 GFW 实现,并且在许多方面比真正的 GFW 更强大,可以部署在家用路由器上的网络主权,使用场景包括广告拦截、家长控制、恶意软件防护、VPN/代理服务滥用防护、流量分析 (纯日志模式)等
No 2. 一键部署开源AI项目列表
No 3. 开源人工智能:挑战闭源巨头的新兴力量
No 4. RAGxplorer:一个交互式工具,用于在嵌入空间中可视化文档块,旨在诊断和探索Retriever-Answer Generator(RAG)模型的应用。该工具允许用户上传文档,将其转换为适用于RAG应用的块格式,并在嵌入空间中可视化这些块
No 5. 'TCM-Ancient-Books - 中医药古籍文本,近700项' GitHub: github.com/xiaopangxia/TCM-Ancient-Books ......
No 6. Orion-14B 系列模型,具有140亿参数的多语种大模型,在一个包含2.5万亿token的多样化数据集上进行了训练,涵盖中文、英语、日语、韩语等多种语言,包括一系列相关的衍生模型,包括对话模型,长文本模型,量化模型,RAG微调模型,Agent微调模型等
No 7. 科学领域预训练语言模型大列表,包括数学、物理、化学、生物学、医学、材料科学和地球科学等领域的模型,涵盖不同的参数规模,从小于100M到700B参数,以及不同的模态(如语言、视觉、分子、蛋白质、图表等)
No 8. #抽奖# #赠书# 携手@图灵新知 @图灵文化 送出5本《智能文本处理实战》
No 9. “哄哄模拟器Web版 – 你的AI对象生气了,快哄哄TA - 哄哄模拟器基于AI技术,你需要使用语言技巧和沟通能力,在限定次数内让对方原谅你,这并不容易[笑而不语]” ......
No 10. 高效LLM和多模态基础模型相关论文资源列表,包括大型语言模型(LLM)、视觉Transformer(ViT)、扩散和LLM基础的多模态模型,它们如何在机器学习生命周期的各个阶段,从训练到部署
No 11. 关于ChatGPT的资源集合,包括了各种工具、文档、应用和使用案例
No 12. 向量数据库横向对比,包括Pinecone、Weaviate、Qdrant、Chroma、LanceDB、Milvus、Vespa、Vald、Postgres、Redis、ElasticSearch等
No 13. ’GenMedicalEval:医疗大语言模型综合评测框架,特点包括大规模综合性能评测、深入细分的多维度场景评估、创新性的开放式评估指标和自动化评估模型’ ......
No 14. OpenAI首席执行官Sam Altman筹集数十亿美元建立全球AI芯片工厂
No 15. 个人LLM智能体相关论文资源列表,个人LLM智能体的主要目的是协助终端用户,增强其能力,帮助他们更专注于有趣和重要的事务,这里列出了个人LLM智能体的关键能力、效率和安全性方面的主要内容,包括任务自动化、记忆功能、安全性和隐私等
No 16. 面向低级视觉的扩散模型相关论文资源列表,包括了各种扩散模型在低级别视觉任务中的应用,如自然图像恢复、超分辨率、修复、去雾、低光增强等。这些模型在不同领域,包括医学图像分析、遥感图像处理等方面都有应用
No 17. [CL] Large Language Models on Graphs: A Comprehensive Survey ......
No 18. LLM App Stack:LLM应用栈工具、项目和供应商列表,旨在更全面地覆盖每个类别中的所有可用选项,涵盖了数据管道、嵌入模型、向量数据库、沙盒、编排器、API / 插件、LLM缓存、日志/监视/评估、验证器、LLM API(专有)、LLM API(开源)、应用程序托管平台、云提供商、有见解的云项目列表等类别
No 19. Distributed Llama:旨在通过将工作负载分布和划分RAM使用来在弱设备上运行LLM(大型语言模型)或使强大设备更加强大,支持的LLM模型包括Llama 2 7B、Llama 2 13B和Llama 2 70B
No 20. 'ChatGPT Next Web LangChain - 一键拥有自己的 ChatGPT 网页服务(基于 langchain ......
No 21. GPT Core:用于创建和训练先进的大型语言模型(LLM),着重强调了其快速性能,可以在仅20分钟消费级GeForce RTX™ 4090上将自定义的1.23亿参数LLM预训练到约3.5的验证损失
No 22. 《AI 研发提效研究:自己动手训练 LoRA》
No 23. [LG] Evolving Code with A Large Language Model 介绍了一种使用大型语言模型(LLM)演化代码的方法。与传统的遗传编程不同,LLM ......
No 24. LLM时代打击虚假信息相关论文资源列表,涵盖了LLM在虚假信息检测、干预、归因以及对抗LLM生成虚假信息等方面的研究
No 25. 今日推介(第1292期):探索熵变化对学习系统的影响、将预训练基础模型组合成更大的多模态网络、基于AlphaCodium的程序代码生成、基于深度学习的快速生物成像时间超分辨率、深度神经网络中基本音乐检测器的自发涌现 ......
No 26. LLM的偏好微调和对齐
No 27. 资源高效LLM相关论文资源列表
No 28. [CL] Leveraging Large Language Models for NLG Evaluation: A ......
No 29. 早![太阳] ​
No 30. 通过模拟大脑的音频信息处理方式,研究发现神经网络可以自发地产生对音乐的感知,揭示了音乐特征的起源和普遍性的可能机制。//[LG]《Spontaneous emergence of rudimentary music detectors in deep neural networks》
No 31. [LG]《NoisyNN: Exploring the Influence of Information Entropy Change in Learning Systems》
No 32. 'LunaTranslator - Galgame翻译工具,支持剪贴板、OCR、HOOK,支持40余种翻译引擎。Visual ......
No 33. 通过注入特定噪声,改变学习系统的信息熵,论文研究了噪声对深度学习模型的影响,提出了Noisy Neural Networks (NoisyNN)模型,并证明正噪声可以显著提升模型性能。//[LG]《NoisyNN: Exploring the Influence of Information Entropy Change in Learning Systems》
No 34. [LG]《Spontaneous emergence of rudimentary music detectors in deep neural networks》
No 35. 几篇论文实现代码
No 36. [LG]《GATS: Gather-Attend-Scatter》
No 37. 免费书稿:《向量检索基础》
No 38. GATS是一种新模块,通过无缝整合预训练的基础模型,可以实现多模态信息处理和生成,并避免微调过程中的知识丢失。//[LG]《GATS: Gather-Attend-Scatter》
No 39. [CV] DiffusionGPT: LLM-Driven Text-to-Image Generation System ......
No 40. 免费书稿:《概率和统计学导论:随机性的计算框架》,...
No 41. [CL] The What, Why, and How of Context Length Extension Techniques ......
No 42. [LG]《Code Generation with AlphaCodium: From Prompt Engineering to Flow Engineering》
No 43. Even Flow: 旨在创建自组织Python函数的框架,允许程序员定义一系列具有清晰定义的输入和单一输出的函数,然后'Evenflow'会自动将这些函数组合成另一个flowable函数
No 44. 理解和编写LLM中的自注意力、多头注意力、交叉注意力和因果注意力
No 45. WhisperBot:整合了Mistral大型语言模型的实时语音转文本系统,基于WhisperLive和WhisperSpeech,WhisperLive使用OpenAI Whisper作为强大的自动语音识别系统,Mistral和Whisper都经过TensorRT引擎优化,以实现高性能和低延迟处理
No 46. Draw2Img:一个简单的Web用户界面,用于交互式文本引导的图像生成,适用于任何年龄和技能水平
No 47. datatrove:平台无关的数据处理开源工具
No 48. Docker超级速查清单
No 49. 提出一种名为AlphaCodium的测试驱动、多阶段、面向程序代码的迭代流程,通过迭代运行和修复生成的代码来提高语言模型在代码问题上的性能,显著改进了传统自然语言生成技术在代码生成问题上的表现。
No 50. Chinese-Mixtral-8x7B:中文Mixtral-8x7B,基于Mistral发布的模型Mixtral-8x7B进行了中文扩词表增量预训练