简体中文 | English | 日本語
このプロジェクトのドキュメントを探索する »
EmoLLM 2.0 デモ
·
バグを報告する
·
新機能を提案する
EmoLLM は、メンタルヘルスカウンセリングにおいて顧客を理解し、サポートし、助けるために設計された大規模言語モデルのシリーズです。LLMの指示から微調整されています。スターをいただけると嬉しいです~⭐⭐。オープンソースの構成は以下の通りです:
モデル | タイプ | ファイルリンク | モデルリンク |
---|---|---|---|
InternLM2_5_7B_chat | QLORA | internlm2_5_chat_7b_qlora_oasst1_e3.py | ModelScope |
InternLM2_7B_chat | QLORA | internlm2_7b_chat_qlora_e3.py | ModelScope |
InternLM2_7B_chat | 全量微調整 | internlm2_chat_7b_full.py | OpenXLab |
InternLM2_7B_base | QLORA | internlm2_7b_base_qlora_e10_M_1e4_32_64.py | OpenXLab, ModelScope |
InternLM2_1_8B_chat | 全量微調整 | internlm2_1_8b_full_alpaca_e3.py | OpenXLab, ModelScope |
InternLM2_20B_chat | LORA | internlm2_20b_chat_lora_alpaca_e3.py | |
Qwen_7b_chat | QLORA | qwen_7b_chat_qlora_e3.py | |
Qwen1_5-0_5B-Chat | 全量微調整 | qwen1_5_0_5_B_full.py | ModelScope |
Baichuan2_13B_chat | QLORA | baichuan2_13b_chat_qlora_alpaca_e3.py | |
ChatGLM3_6B | LORA | chatglm3_6b_lora_alpaca_e3.py | |
DeepSeek MoE_16B_chat | QLORA | deepseek_moe_16b_chat_qlora_oasst1_e3.py | |
Mixtral 8x7B_instruct | QLORA | mixtral_8x7b_instruct_qlora_oasst1_e3.py | |
LLaMA3_8b_instruct | QLORA | aiwei_llama3_8b_instruct_qlora_e3.py | OpenXLab, ModelScope |
LLaMA3_8b_instruct | QLORA | llama3_8b_instruct_qlora_alpaca_e3_M_ruozhi_scM.py | OpenXLab, ModelScope |
…… | …… | …… | …… |
皆さんのこのプロジェクトへの貢献をお待ちしています~
このモデルは、個人、グループ、社会のメンタルヘルスを完全に理解し、促進することを目的としています。このモデルには通常、以下の主要なコンポーネントが含まれます:
- 認知要因:個人の思考パターン、信念システム、認知バイアス、問題解決能力に関するもの。認知要因は、個人が人生の出来事をどのように解釈し、対応するかに影響を与えるため、メンタルヘルスに大きな影響を与えます。
- 感情要因:感情の調整、感情の表現、感情の経験を含む。感情の健康はメンタルヘルスの重要な部分であり、個人が感情をどのように管理し、表現し、負の感情からどのように回復するかに関与します。
- 行動要因:個人の行動パターン、習慣、対処戦略に関するもの。これには、ストレス管理スキル、社交スキル、自己効力感(自分の能力に対する自信)が含まれます。
- 社会環境:家族、仕事、コミュニティ、文化的背景などの外部要因であり、これらは個人のメンタルヘルスに直接的および間接的な影響を与えます。
- 身体の健康:身体の健康とメンタルヘルスは密接に関連しています。良好な身体の健康はメンタルヘルスを促進し、その逆もまた然りです。
- 心理的レジリエンス:逆境から回復し、適応する個人の能力を指します。心理的レジリエンスが強い人は、挑戦から回復し、それから学び、成長することができます。
- 予防および介入措置:メンタルヘルスの大規模モデルには、心理的問題を予防し、メンタルヘルスを促進するための戦略も含まれます。これには、心理教育、カウンセリング、治療、社会的支援システムが含まれます。
- 評価および診断ツール:メンタルヘルスを効果的に促進するためには、個人の心理状態を評価し、潜在的な心理的問題を診断するための科学的なツールが必要です。
- 【2024.7】EmoLLM V2.0の安定版を日常使用および学術研究にご利用ください。モデルの重みリンク:OpenXLab。
- 【2024.7】InternLM2_5_7B_chatの微調整構成を追加しました。ModelScope。
- 【2024.6】LLaMA-FactoryのGLM4-9B-chat微調整ガイドを追加しました。swiftベースの微調整ガイドを追加しました。論文ESC-Eval: Evaluating Emotion Support Conversations in Large Language ModelsがEmoLLMを引用し、EmoLLMが良好な結果を達成しました。
- 【2024.05.28】EmoLLMが使用するマルチターン対話データセットCPsyCunDと専門評価方法が公開されました。詳細は2024 ACL findings《CPsyCoun: A Report-based Multi-turn Dialogue Reconstruction and Evaluation Framework for Chinese Psychological Counseling》をご覧ください!
- [2024.05.08] EmoLLMDaddy-like BF V0.1が1. Baidu AppBuilderと2. OpenXLabで公開されました。ぜひ「いいね」と「コレクション」に追加してください!
- [2024.05.07] インクリメンタルプレトレーニングガイド
- [2024.05.04] LLaMA3_8b_instructベースのEmoLLM3.0 OpenXLabデモが公開されました(再起動リンク)、LLAMA3微調整ガイドが更新されました。LLaMA3_8b_instruct-8B QLoRA微調整モデルEmoLLM3.0の重みがOpenXLabとModelScopeプラットフォームで公開されました。
- [2024.04.20] LLAMA3微調整ガイドとLLaMA3_8b_instructのaiweiがオープンソース化されました。
- [2023.04.14] クイックスタートとナニー級チュートリアルBabyEmoLLMを追加しました。
- [2024.04.02] HuggingfaceにOld Mother Counsellorをアップロードしました。
- [2024.03.25] [Mother-like Therapist]がHuggingfaceで公開されました(https://huggingface.co/brycewang2018/EmoLLM-mother/tree/main)。
- [2024.03.25] [Daddy-like Boy-Friend]がBaidu Paddle-Paddle AI Studioプラットフォームで公開されました(https://aistudio.baidu.com/community/app/68787)。
- [2024.03.24] InternLM2-Base-7B QLoRA微調整モデルがOpenXLabとModelScopeプラットフォームで公開されました。詳細はInternLM2-Base-7B QLoRAをご覧ください。
- [2024.03.12] [aiwei]がBaidu Paddle-Paddle AI Studioプラットフォームで公開されました(https://aistudio.baidu.com/community/app/63335)。
- [2024.03.11] EmoLLM V2.0はEmoLLM V1.0と比較して全体的に向上し、心理カウンセリングタスクにおいてRole-playing ChatGPTを上回る能力を持っています! EmoLLM V2.0を体験する、データセットの統計と詳細情報、ロードマップを更新しました。
- [2024.03.09] 同時実行機能を追加してQAペア生成、RAGパイプラインを加速しました。
- [2024.03.03] InternLM2-7B-chat全量微調整バージョンEmoLLM V2.0がオープンソース化されました、2つのA100*80Gが必要です。専門評価を更新しました。詳細はevaluateをご覧ください。PaddleOCRベースのPDFからtxtへの変換ツールスクリプトを更新しました。詳細はscriptsをご覧ください。
- [2024.02.29] 客観的評価計算を更新しました。詳細はevaluateをご覧ください。一連のデータセットを更新しました。詳細はdatasetsをご覧ください。
- [2024.02.27] 英語のREADMEと一連のデータセット(リッキングドッグとワンターン対話)を更新しました。
- [2024.02.23] InternLM2_7B_chat_qloraベースの「優しいお姉さん心理カウンセラーAi Wei」をリリースしました。モデルの重みを取得する、構成ファイル、オンライン体験リンク。
- [2024.02.23] いくつかの微調整構成を更新しました。data_pro.json(より多くの量、より包括的なシナリオ、より豊富な内容)とaiwei.json(優しいお姉さんのロールプレイ専用、Emoji表現を含む)を追加しました。「優しいお姉さん心理カウンセラーAi Wei」が近日公開予定です。
- [2024.02.18] Qwen1_5-0_5B-Chat全量微調整バージョンがオープンソース化されました。計算リソースが限られている方もぜひお試しください。
もっと見る
- [2024.02.06] Qwen1_5-0_5B-Chat全量微調整バージョンがオープンソース化されました。計算リソースが限られている方もぜひお試しください。
- [2024.02.05] プロジェクトが公式WeChatアカウントNLP Engineeringで紹介されました。記事のリンクはこちらです。皆さんのフォローをお待ちしています!! 🥳🥳
- [2024.02.03] プロジェクトビデオがbilibiliで公開されました 😊
- [2024.01.27] データ構築ドキュメント、微調整ガイド、デプロイメントガイド、Readmeなどの関連ドキュメントを完成させました 👏
- [2024.01.25] EmoLLM V1.0がオンラインでデプロイされました https://openxlab.org.cn/apps/detail/jujimeizuo/EmoLLM 😀
- プロジェクトは、2024浦源大模型シリーズチャレンジ春季大会でイノベーションとクリエイティビティ賞を受賞しました。
- AI-enabled university programme "National College Tour"で一等賞を受賞しました。
- プロジェクトは公式WeChatアカウントNLP Engineeringで紹介されました。記事のリンクはこちらです。
-
🎉以下のメディアおよび友人の皆様に、このプロジェクトの報道とサポートに感謝します(以下、順不同!省略があれば申し訳ありませんが、感謝しています!追加を歓迎します!):NLP工程化、机智流、爱可可爱生活、阿郎小哥、大模型日知路、AI Codeなど!
-
プロジェクトビデオEmoLLMが公開されました。ぜひご覧ください! 😀
- A100 40G(特にInternLM2_7B_chat + qlora微調整 + deepspeed zero2最適化用)
- リポジトリをクローンする
git clone https://github.com/SmartFlowAI/EmoLLM.git
- クイックスタートを参照してください。
- クイックコーディング:Baby EmoLLM
詳細は微調整ガイドを参照してください。
- デモデプロイメント:詳細はデプロイメントガイドを参照してください。
- LMDeployに基づく定量デプロイメント:詳細はdeployを参照してください。
- 詳細はRAGを参照してください。
- モデル評価は一般的な指標評価と専門的な指標評価に分かれています。詳細は評価ガイドを参照してください。
追加の詳細
貢献は、オープンソースコミュニティを学習、インスピレーション、創造の素晴らしい場所にします。あなたの貢献は非常に感謝されます。
- プロジェクトをフォークする
- フィーチャーブランチを作成する(
git checkout -b feature/AmazingFeature
) - 変更をコミットする(
git commit -m 'Add some AmazingFeature'
) - ブランチにプッシュする(
git push origin feature/AmazingFeature
) - プルリクエストを開く
このプロジェクトはバージョン管理にGitを使用しています。現在利用可能なバージョンはリポジトリで確認できます。
ユーザー名 | 学校/組織 | 備考 | 貢献 |
---|---|---|---|
aJupyter | 南開大学、修士課程在籍 | DataWhaleメンバー | プロジェクト発起人 |
MING-ZCH | 華中科技大学、学部生 | LLM X メンタルヘルス研究者 | プロジェクト共同リーダー |
jujimeizuo | 江南大学、修士課程在籍 | ||
Smiling-Weeping-zhr | ハルビン工業大学(威海)、学部生 | ||
8baby8 | PaddlePaddleパイロットチーム地域ディレクター | 文心大モデルのコア開発者 | |
zxazys | 南開大学、修士課程在籍 | ||
JasonLLLLLLLLLLL | SWUFE(西南財経大学) | ||
MrCatAI | AIムーバー | ||
ZeyuBa | 自動化研究所、修士課程在籍 | ||
aiyinyuedejustin | ペンシルベニア大学、修士課程在籍 | ||
Nobody-ML | 中国石油大学(華東)、学部生 | ||
chg0901 | MiniSora | MiniSoraのメンテナーおよび管理者 | LLMの事前トレーニングと微調整、モデルのアップロード、データのクリーニング、ドキュメントの翻訳 |
Mxoder | 北京航空航天大学、学部生 | ||
Anooyman | 南京理工大学、修士課程在籍 | ||
Vicky-3021 | 西安電子科技大学、修士課程在籍(研究年0) | ||
SantiagoTOP | 太原理工大学、修士課程在籍 | データのクリーニング、ドキュメント管理、Baby EmoLLMのメンテナンス | |
zealot52099 | 個人開発者 | データ処理、LLMの微調整とRAG | |
wwwyfff | 復旦大学、修士課程在籍 | ||
jkhumor | 南開大学、修士課程在籍 | RAG | |
lll997150986 | 南開大学、修士課程在籍 | 微調整 | |
nln-maker | 南開大学、修士課程在籍 | フロントエンドとバックエンドの開発 | |
dream00001 | 南開大学、修士課程在籍 | フロントエンドとバックエンドの開発 | |
王几行XING | 北京大学、修士課程卒業 | データ処理、LLMの微調整、フロントエンドとバックエンドの開発 | |
[思在] | 北京大学、修士課程卒業(マイクロソフト) | LLMの微調整、フロントエンドとバックエンドの開発 | |
TingWei | 電子科技大学、修士課程卒業 | LLMの微調整 | |
PengYu | 石河子大学、修士課程在籍 | LLMの微調整 |
このプロジェクトはMITライセンスの下でライセンスされています。詳細については、LICENSEを参照してください。
- 失敗した場合は、Issueセクションに移動してください。