免费爱碰视频在线观看,九九精品国产屋,欧美亚洲尤物久久精品,1024在线观看视频亚洲

      AI時(shí)代,你需要了解的國(guó)外 12 個(gè)主流大語(yǔ)言模型

      極客號(hào)(Daydx.com) 導(dǎo)語(yǔ):如今,AI大語(yǔ)言模型泛濫,這讓人眼花繚亂。本文中,極客號(hào)帶大家著眼于一些國(guó)外撼動(dòng)人工智能領(lǐng)域的重要模型,包括這些大語(yǔ)言模型的開(kāi)發(fā)商、參數(shù)以及使用用例情況。下面一起來(lái)看看吧。

      AI時(shí)代,你需要了解的國(guó)外 12 個(gè)主流大語(yǔ)言模型

      1、ChatGPT

      開(kāi)發(fā)商:OpenAI

      https://openai.com/

      參數(shù):未知

      ChatGPT是真正激發(fā)了主流公眾對(duì)人工智能迷戀的應(yīng)用程序。

      ChatGPT 于2022年11月發(fā)布,是一個(gè)界面應(yīng)用程序,允許用戶向其提問(wèn)并生成響應(yīng)。

      它使用 InstructGPT 和 GPT3.5的組合啟動(dòng),后來(lái)看到強(qiáng)大的GPT-4為該應(yīng)用程序的高級(jí)版本提供支持。

      在微軟投資OpenAI 并獲得該應(yīng)用程序的訪問(wèn)權(quán)限后,ChatGPT 已成為微軟一系列產(chǎn)品的基礎(chǔ)。

      ChatGPT 是一個(gè)封閉系統(tǒng),這意味著 OpenAI 保留對(duì)應(yīng)用程序的完全控制和所有權(quán)。OpenAI 將 GPT-4的參數(shù)級(jí)別保密。

      用例

      文本生成和摘要– ChatGPT 可以通過(guò)詳細(xì)的響應(yīng)生成類(lèi)似人類(lèi)的文本。除了回答各種問(wèn)題外,它還具有有效的摘要能力,能夠解析大量信息以提供簡(jiǎn)潔、易于理解的摘要,使其成為將復(fù)雜內(nèi)容提煉為更易于管理的形式的強(qiáng)大工具。

      代碼生成- ChatGPT 可以跨多種編程語(yǔ)言生成代碼,提供編碼問(wèn)題的解決方案,并幫助調(diào)試和演示編碼實(shí)踐。其結(jié)果雖然總體上可靠,但仍應(yīng)審查其準(zhǔn)確性和優(yōu)化性。根據(jù)Stack Overflow 調(diào)查,ChatGPT 是開(kāi)發(fā)者中最受歡迎的人工智能工具。

      操作機(jī)器人——微軟的工程師團(tuán)隊(duì)展示了讓ChatGPT 控制機(jī)器人的可能性。在演示中,OpenAI 的語(yǔ)言模型連接到機(jī)械臂,并負(fù)責(zé)解決一些難題。當(dāng)用戶的指令不明確時(shí),ChatGPT 會(huì)向研究人員詢問(wèn)澄清問(wèn)題。它甚至為另一個(gè)實(shí)驗(yàn)中控制的無(wú)人機(jī)編寫(xiě)了代碼結(jié)構(gòu)。

      為立法者總結(jié)法案——國(guó)會(huì)工作人員正在使用 ChatGPT。國(guó)會(huì)工作人員獲得了大約40個(gè) ChatGPT+ 許可證,這是使用 GPT-4的20美元高級(jí)版本。盡管有報(bào)道稱工作人員正在使用該工具來(lái)創(chuàng)建和總結(jié)內(nèi)容,但沒(méi)有透露 ChatGPT+ 許可證的用途。

      2、LLaMA

      開(kāi)發(fā)者:meta、FAIR

      https://ai.facebook.com/

      參數(shù):7~650億

      LLaMA – 代表大型語(yǔ)言模型元人工智能,專(zhuān)為研究人員和開(kāi)發(fā)人員制作模型而設(shè)計(jì)。LLaMA 是一個(gè)開(kāi)源模型,其設(shè)計(jì)比 GPT-3等模型更小。它是為缺乏開(kāi)發(fā)語(yǔ)言模型的計(jì)算能力的用戶而設(shè)計(jì)的。

      自2023年2月下旬發(fā)布以來(lái),研究人員經(jīng)常對(duì) LLaMA 進(jìn)行微調(diào),以創(chuàng)建其他語(yǔ)言模型,例如Vicuna。

      用例

      開(kāi)源模型開(kāi)發(fā)——LLaMA 已經(jīng)為各種開(kāi)源 AI 模型奠定了基礎(chǔ),包括Dolly、Alpaca和Gorilla等。隨著研究人員和開(kāi)發(fā)人員紛紛涌向人工智能模型,LLaMA 就是為了修改而生的。事實(shí)證明,LLaMA 的70億參數(shù)版本非常受歡迎,因?yàn)樗某叽缫馕吨\(yùn)行所需的計(jì)算能力更少。

      訪問(wèn) LLaMA 代碼 – https://github.com/facebookresearch/llama

      3、I-JEPA

      開(kāi)發(fā)商:meta、FAIR

      https://ai.facebook.com/

      參數(shù):未知

      I-JEPA是 meta 于2023年6月發(fā)布的 AI 模型。模型本身并不是明星,而是它的構(gòu)建方式:使用新的架構(gòu)。

      JEPA 方法可以預(yù)測(cè)缺失的信息,類(lèi)似于人類(lèi)的一般理解能力,這是生成式 AI 方法無(wú)法做到的。

      meta的首席AI科學(xué)家Yann LeCun不斷提出深度學(xué)習(xí)AI模型可以在不需要人工干預(yù)的情況下了解周?chē)h(huán)境的想法。JEPA 方法符合這一愿景,并且不涉及與應(yīng)用計(jì)算密集型數(shù)據(jù)增強(qiáng)來(lái)生成多個(gè)視圖相關(guān)的任何開(kāi)銷(xiāo)。

      用例

      從圖像進(jìn)行自我監(jiān)督學(xué)習(xí)- I-JEPA(圖像聯(lián)合嵌入預(yù)測(cè)架構(gòu))創(chuàng)建主題的內(nèi)部模型并比較圖像的抽象表示,而不是比較單個(gè)像素本身。

      I-JEPA 可以有效地學(xué)習(xí)該信息并將其應(yīng)用到各種應(yīng)用程序中,而無(wú)需進(jìn)行大量的微調(diào)。

      訪問(wèn) I-JEPA 的模型代碼和檢查點(diǎn) – https://github.com/facebookresearch/ijepa

      4、PaLM2

      開(kāi)發(fā)商:谷歌

      https://ai.google/

      參數(shù):3400億(據(jù)報(bào)道)

      PaLM2是 Google 的旗艦語(yǔ)言模型。該模型在公司年度 I/O 大會(huì)上推出,支持100多種語(yǔ)言,并針對(duì)特定領(lǐng)域的應(yīng)用程序進(jìn)行了微調(diào)。

      PaLM 有多種尺寸 – 每種尺寸均以動(dòng)物命名,以代表其尺寸。壁虎是最小的,然后是水獺、野牛,最后是最大的獨(dú)角獸。

      用例

      聊天機(jī)器人改進(jìn)– PaLM 現(xiàn)在為 Bard 提供支持,Bard 是 Google 對(duì) ChatGPT 的回應(yīng)。PaLM 使 Bard 能夠生成文本和代碼以及總結(jié)文檔。

      音頻生成和語(yǔ)音處理– PaLM2與音頻生成模型結(jié)合使用時(shí),可用于生成文本和語(yǔ)音以進(jìn)行語(yǔ)音識(shí)別和語(yǔ)音到語(yǔ)音翻譯。與 AudioLM 結(jié)合使用時(shí),PaLM2可以利用大量文本訓(xùn)練數(shù)據(jù)來(lái)協(xié)助完成語(yǔ)音任務(wù)。谷歌認(rèn)為,在音頻生成系統(tǒng)中添加純文本大型語(yǔ)言模型可以改善語(yǔ)音處理,并且在語(yǔ)音翻譯任務(wù)方面優(yōu)于現(xiàn)有系統(tǒng)。

      醫(yī)療保健應(yīng)用– 在 PaLM2微調(diào)并應(yīng)用于特定部門(mén)的示例中,Med-PaLM-2展示了該模型的多功能性。用戶可以提示模型通過(guò)圖像(例如 X 射線)確定醫(yī)療問(wèn)題。據(jù)谷歌研究人員稱,Med-PaLM-2的不準(zhǔn)確推理減少了九倍——接近臨床醫(yī)生回答同一組問(wèn)題的表現(xiàn)。

      5、Auto-GPT

      開(kāi)發(fā)者:Auto-GPT開(kāi)發(fā)團(tuán)隊(duì)

      https://news.agpt.co/meet-the-team/

      參數(shù):未知

      Auto-GPT是 Autonomous GPT 的縮寫(xiě),是一個(gè)開(kāi)源項(xiàng)目,試圖為互聯(lián)網(wǎng)用戶提供強(qiáng)大的語(yǔ)言模型。Auto-GPT 基于 OpenAI 的GPT-4構(gòu)建,可用于自動(dòng)化社交媒體帳戶或生成文本等用例。

      該模型于2023年4月推出后在網(wǎng)上廣受歡迎,前特斯拉人工智能首席執(zhí)行官安德烈·卡帕蒂 (Andrej Karpathy) 等人都稱贊該模型的能力。

      用例

      Twitter AI 帳戶– 盡管埃隆·馬斯克 (Elon Musk) 試圖取消機(jī)器人帳戶,但 Auto-GPT 仍可用于為 Twitter 個(gè)人資料提供支持。Auto-GPT 用于為IndiepreneurGPT帳戶提供支持并自動(dòng)通過(guò)該帳戶發(fā)送推文。

      自動(dòng)化一般流程– Auto-GPT 專(zhuān)為實(shí)驗(yàn)而設(shè)計(jì)。到目前為止,開(kāi)發(fā)人員已經(jīng)使用該模型來(lái)做一些事情,例如自動(dòng)訂購(gòu)披薩、計(jì)劃旅行或預(yù)訂航班。然而,其背后的團(tuán)隊(duì)警告說(shuō),它還沒(méi)有“完善”,并且“在復(fù)雜的現(xiàn)實(shí)業(yè)務(wù)場(chǎng)景中可能表現(xiàn)不佳”。

      訪問(wèn) Auto-GPT – https://github.com/Significant-Gravitas/Auto-GPT

      6、Claude

      開(kāi)發(fā)商:Anthropic

      https://www.anthropic.com/

      參數(shù):未知(盡管 Anthropic 的憲法 AI 論文提到了 AnthropicLM v4-s3,它擁有520億個(gè)參數(shù))

      將Claude視為 ChatGPT 明智的表弟。Anthropic 由前 OpenAI 員工創(chuàng)立,他們?cè)谂c微軟的密切關(guān)系上留下了分歧。

      Anthropic 隨后開(kāi)發(fā)了 Claude,這是一款聊天機(jī)器人應(yīng)用程序,與 ChatGPT 沒(méi)有太大不同,除了一件事——更加關(guān)注安全性。

      Claude使用憲法人工智能,這是由 Anthropic 開(kāi)發(fā)的一種方法,可以防止其產(chǎn)生潛在有害的輸出。該模型被賦予了一套需要遵守的原則,幾乎就像賦予它一種“良心”。

      在撰寫(xiě)本文時(shí),Claude2是最新版本。Claude2于2023年7月推出,擁有改進(jìn)的性能,能夠充當(dāng)業(yè)務(wù)和技術(shù)分析師。

      用例

      文檔分析——Claude 可用于從多個(gè)冗長(zhǎng)的文檔甚至?xí)蝎@取見(jiàn)解。然后用戶向Claude詢問(wèn)有關(guān)文檔的問(wèn)題。此功能來(lái)自 Claude 相當(dāng)大的上下文窗口,即人工智能在生成輸出之前考慮的一系列標(biāo)記。Claude 的上下文窗口涵蓋100,000個(gè)文本標(biāo)記,即大約75,000個(gè)單詞。

      文本生成和摘要- 與 ChatGPT 一樣,可以提示 Claude 生成問(wèn)題答復(fù)或生成文本摘要。

      嘗試 Slack 中的Claude – https://www.anthropic.com/claude-in-slack

      訪問(wèn) Claude2測(cè)試版 – https://claude.ai/login

      7、Stable Diffusion XL

      開(kāi)發(fā)商:Stability AI

      https://stability.ai/

      參數(shù):基礎(chǔ)模型:35億個(gè)參數(shù),模型集成管道:66億個(gè)參數(shù)

      Stable Diffusion XL是2022年聲名鵲起的文本到圖像模型的最新版本。在撰寫(xiě)本文時(shí),0.9是最新版本,它可以生成超現(xiàn)實(shí)的圖像。

      SDXL0.9還擁有圖像到圖像的功能,這意味著用戶可以使用一個(gè)圖像作為提示來(lái)生成另一個(gè)圖像。Stable Diffusion XL 還允許修復(fù)(可以填充圖像中缺失或損壞的部分)和修復(fù)(可以擴(kuò)展現(xiàn)有圖像)。

      用例

      圖像生成– 與原始Stable Diffusion相同,XL 版本可用于根據(jù)自然語(yǔ)言提示生成圖像。然而,最新版本使用了兩個(gè)模型,其中第二個(gè)模型旨在作為兩階段過(guò)程的一部分向生成的輸出添加更精細(xì)的細(xì)節(jié)。

      重新想象- 使用 Stability 的Clipdrop平臺(tái),Stable Diffusion XL 可用于從單個(gè)圖像創(chuàng)建多個(gè)變體。只需單擊、粘貼或上傳圖像即可生成更改網(wǎng)站插圖或概念藝術(shù)圖像的可能方法。

      電影和電視– Stability 聲稱 SDXL 世代可用于電視、音樂(lè)和教學(xué)視頻,以及“為設(shè)計(jì)和工業(yè)用途提供進(jìn)步”。

      訪問(wèn)Stable Diffusion XL0.9- https://huggingface.co/stabilityai/stable-diffusion-xl-base-0.9

      8、Dolly

      開(kāi)發(fā)商:Databricks

      https://www.databricks.com/

      參數(shù): Dolly:60億個(gè)參數(shù),Dolly2.0:120億個(gè)參數(shù)

      Databricks 的Dolly AI 模型以世界上第一個(gè)克隆哺乳動(dòng)物 Dolly 羊命名,與此列表中的其他模型相比,其設(shè)計(jì)體積較小,訓(xùn)練成本也較低。

      Dolly于3月份首次亮相,培訓(xùn)費(fèi)用僅為30美元。它是 EleutherAI 的GPT-J語(yǔ)言模型的微調(diào)版本。Dolly 的設(shè)計(jì)具有高度可定制性,用戶可以使用內(nèi)部數(shù)據(jù)創(chuàng)建自己的類(lèi)似 ChatGPT 的聊天機(jī)器人。

      一個(gè)月后, Dolly2.0發(fā)布,并使用 EleutherAI 的 Pythia 模型系列構(gòu)建。后來(lái)的迭代在 Databricks 員工眾包的遵循指令的數(shù)據(jù)集上進(jìn)行了微調(diào)。它專(zhuān)為研究和商業(yè)用途而設(shè)計(jì)。不過(guò),Databricks 并未透露訓(xùn)練 Dolly2.0的成本是多少。

      用例

      文本生成和文檔摘要——與 ChatGPT 和此列表中的其他模型一樣,Dolly 的任一版本都可以在使用自然語(yǔ)言提示時(shí)生成文本。它相對(duì)于其他產(chǎn)品的優(yōu)勢(shì)來(lái)自于它的可定制性,企業(yè)能夠使用易于訪問(wèn)的代碼來(lái)構(gòu)建自己的版本。

      訪問(wèn) Dolly 代碼 – https://github.com/databrickslabs/dolly

      訪問(wèn) Dolly2.0代碼 – https://huggingface.co/databricks/dolly-v2-12b

      9、XGen-7B

      開(kāi)發(fā)商:Salesforce

      https://www.salesforceairesearch.com/

      參數(shù):70億個(gè)參數(shù)

      XGen-7B是一系列大型語(yǔ)言模型,旨在篩選冗長(zhǎng)的文檔以提取數(shù)據(jù)見(jiàn)解。

      Salesforce 研究人員采用了一系列70億個(gè)參數(shù)模型,并在 Salesforce 的內(nèi)部庫(kù) JaxFormer 以及公共領(lǐng)域教學(xué)數(shù)據(jù)上對(duì)它們進(jìn)行了訓(xùn)練。生成的模型可以處理多達(dá)1.5萬(wàn)億個(gè)token的8,000個(gè)序列長(zhǎng)度。

      用例

      數(shù)據(jù)分析– 像 meta 的 LLaMA 這樣的模型的最大序列長(zhǎng)度僅為2,000個(gè)令牌左右 – 這意味著它很難從文檔等冗長(zhǎng)的非結(jié)構(gòu)化數(shù)據(jù)源中提取見(jiàn)解。然而,XGen-7B 可以輕松篩選冗長(zhǎng)的文檔,并在出現(xiàn)提示時(shí)提取見(jiàn)解。

      代碼生成– XGen-7B 模型利用Starcoder,這是由 Salesforce 和 Hugging Face 創(chuàng)建的代碼生成模型。添加了 Starcoder 的功能以支持 XGen 的代碼生成任務(wù)。

      聊天機(jī)器人對(duì)話功能– 當(dāng) ChatGPT 和 Bing 的 AI 聊天等應(yīng)用程序開(kāi)始首次出現(xiàn)時(shí),用戶與應(yīng)用程序?qū)υ挼臅r(shí)間越長(zhǎng),底層模型就越混亂,因?yàn)樗鼰o(wú)法處理較長(zhǎng)的上下文長(zhǎng)度。

      XGen 可能會(huì)應(yīng)用于聊天機(jī)器人,以了解更長(zhǎng)的輸入可能會(huì)給企業(yè)帶來(lái)巨大的好處。Salesforce 的研究人員聲稱,大背景“允許經(jīng)過(guò)預(yù)先訓(xùn)練的法學(xué)碩士查看客戶數(shù)據(jù)并響應(yīng)有用的信息搜索查詢?!?/p>

      訪問(wèn) XGen-7B 代碼庫(kù):https://github.com/salesforce/xGen

      訪問(wèn) XGen-7B 模型檢查點(diǎn):https://huggingface.co/Salesforce/xgen-7b-8k-base

      10、Vicuna

      開(kāi)發(fā)商:LMSYS 組織

      https://lmsys.org/

      參數(shù):70億、130億

      Vicuna是一個(gè)開(kāi)源聊天機(jī)器人,也是此列表中第二個(gè)經(jīng)過(guò)微調(diào)的 LLaMA 模型。為了對(duì)其進(jìn)行微調(diào),Vicuna 背后的團(tuán)隊(duì)使用了從ShareGPT收集的用戶共享對(duì)話。

      LMSYS Org 訓(xùn)練該模型僅花費(fèi)300美元。其研究人員聲稱,Vicuna 的質(zhì)量達(dá)到了 OpenAI ChatGPT 和 Google Bard90% 以上,同時(shí)優(yōu)于 LLaMA 和斯坦福 Alpaca 等其他模型。值得注意的是,OpenAI 尚未在 GPT-4上發(fā)布任何內(nèi)容,而 GPT-4現(xiàn)在為 ChatGPT 的一部分提供支持,因此很難確定這些發(fā)現(xiàn)。

      用例

      文本生成、輔助——與此列表中的大多數(shù)模型一樣,Vicuna 可以用于生成文本,甚至可以作為虛擬助手的一種方式,用戶可以使用自然語(yǔ)言提示機(jī)器人。

      訪問(wèn) Vicuna 代碼 – https://huggingface.co/lmsys/vicuna-13b-delta-v1.1

      11、Inflection

      開(kāi)發(fā)商:Inflection AI

      https://inflection.ai/

      參數(shù):未知

      Inflection-1是 AI 研究實(shí)驗(yàn)室 Inflection 開(kāi)發(fā)的模型,為其虛擬助理應(yīng)用程序Pi.ai提供支持。

      Inflection 使用了“數(shù)千”個(gè) Nvidia 的 H100GPU 來(lái)訓(xùn)練模型。該初創(chuàng)公司應(yīng)用專(zhuān)有技術(shù)方法來(lái)驅(qū)動(dòng)該模型,使其性能與 OpenAI 的 Chinchilla 和 PaLM-540B 等模型相當(dāng)。

      Inflection 使其語(yǔ)言模型的工作完全在內(nèi)部進(jìn)行,從數(shù)據(jù)攝取到模型設(shè)計(jì)。不過(guò),該模型很快將通過(guò) Inflection 的對(duì)話 API提供。

      用例

      為個(gè)人助理提供動(dòng)力——Inflection-1最初是為 Pi.ai 提供動(dòng)力的一種方式。據(jù)其背后的團(tuán)隊(duì)稱,最終的應(yīng)用程序旨在給人留下“善解人意、有用且安全”的印象。Inflection-1還可用于從自然語(yǔ)言描述生成代碼并生成數(shù)學(xué)問(wèn)題的答案。

      12、Gorilla

      開(kāi)發(fā)人員:加州大學(xué)伯克利分校、微軟研究院

      參數(shù):70億個(gè)參數(shù)

      Gorilla 是此列表中第一個(gè)利用 meta 的 LLaMA 作為主體的 AI 模型,它經(jīng)過(guò)了微調(diào),以提高其進(jìn)行 API 調(diào)用的能力,或者更簡(jiǎn)單地說(shuō),與外部工具配合使用的能力。端到端模型旨在為 API 調(diào)用提供服務(wù),無(wú)需任何額外編碼,并且可以與其他工具集成。

      Gorilla 可以與 Apache2.0許可的 LLM 模型一起用于商業(yè)用途。

      用例

      虛擬助手——通過(guò)利用 API,Gorilla 可以應(yīng)用于許多應(yīng)用程序。例如,通過(guò)訪問(wèn)日歷 API,Gorilla 可用于為虛擬助理應(yīng)用程序提供支持。例如,該模型可以在查詢時(shí)返回當(dāng)前日期,而不需要任何輸入。

      搜索改進(jìn)——在搜索選項(xiàng)卡中使用自然語(yǔ)言提示,Gorilla 可以訪問(wèn)以搜索為中心的 API(例如維基百科搜索),以返回短文本片段或更好地理解任務(wù)。例如,它不會(huì)列出某個(gè)名稱下的所有文件,而是列出與上下文相關(guān)的最新文件。

      通過(guò) Colab 嘗試 Gorilla –

      https://colab.research.google.com/drive/1DEBPsccVLF_aUnmD0FwPeHFrtdC0QIUP?usp=sharing

      訪問(wèn) Gorilla 代碼 – https://github.com/ShishirPatil/gorilla

      鄭重聲明:本文內(nèi)容及圖片均整理自互聯(lián)網(wǎng),不代表本站立場(chǎng),版權(quán)歸原作者所有,如有侵權(quán)請(qǐng)聯(lián)系管理員(admin#wlmqw.com)刪除。
      用戶投稿
      上一篇 2023年7月17日 18:15
      下一篇 2023年7月17日 18:15

      相關(guān)推薦

      • 日本電視劇收視率歷史排名(電視劇收視率歷史排名)

        收視率最高的電視劇排行榜前十名 1、但是《還珠格格》卻是我童年中我最喜歡看的電視劇。每到夏天的時(shí)候總會(huì)去看,好像如果這個(gè)夏天沒(méi)有看這個(gè)電視劇,夏天好像就沒(méi)有到來(lái)。可見(jiàn)這部電視劇對(duì)于…

        2024年1月24日
      • 液壓機(jī)械缸鍛造廠家品質(zhì)好的有哪些值得推薦?

        液壓機(jī)是一種以液體為工作介質(zhì)的重要機(jī)械設(shè)備,其核心功能是傳遞能量,實(shí)現(xiàn)各種工藝流程。除了在鍛壓成形方面的應(yīng)用,液壓機(jī)還廣泛應(yīng)用于矯正、壓裝、打包、壓塊和壓板等領(lǐng)域。根據(jù)工作介質(zhì)的不…

        2024年1月24日
      • 湖南暴雪已致1萬(wàn)多人受災(zāi)

        據(jù)@湖南氣象 ,22日7時(shí)至23日7時(shí),湘中、湘南出現(xiàn)大到暴雪,長(zhǎng)沙(瀏陽(yáng))、株洲(醴陵、茶陵)等13個(gè)縣市區(qū)出現(xiàn)大暴雪,郴州(北湖區(qū))、株洲(荷塘區(qū))出現(xiàn)特大暴雪;全省23個(gè)縣市…

        2024年1月24日
      • 落馬貪官退贓像“割肉”,詢問(wèn)能不能少交點(diǎn)

        “就像割我身上的肉一般,會(huì)讓我痛不欲生?!?24日,中央紀(jì)委國(guó)家監(jiān)委網(wǎng)站發(fā)布了針對(duì)云南省文山州住房和城鄉(xiāng)建設(shè)局原黨組成員、副局長(zhǎng)李慶明嚴(yán)重違紀(jì)違法案的剖析。信奉金錢(qián)至上的李慶明惜財(cái)…

        2024年1月24日
      • 中國(guó)gdp排行榜城市(中國(guó)gdp排行榜)

        中國(guó)各省gdp排名 1、根據(jù)查詢國(guó)家統(tǒng)計(jì)局官網(wǎng)信息顯示,2023年各省排名,廣東:GDP為1243667億。江蘇:GDP為116362億。山東:GDP為83099億。浙江:GDP為…

        2024年1月24日
      • SK-II大中華區(qū)季度銷(xiāo)售額暴跌34%,寶潔:日本核污水排海是主因

        財(cái)聯(lián)社1月24日訊(編輯 卞純)全球日用消費(fèi)品巨頭寶潔公司(ProcterGamble)周二表示,在截至12月底的第二財(cái)季,其高端護(hù)膚品牌SK-II在大中華區(qū)的銷(xiāo)售額下降了34%,…

        2024年1月24日
      • 呼和浩特白塔機(jī)場(chǎng)通報(bào)“保潔員占母嬰室吃飯”:涉事人已被辭退

        呼和浩特白塔機(jī)場(chǎng)通報(bào)“保潔員占母嬰室吃飯”:涉事人已被辭退 原標(biāo)題: 呼和浩特白塔機(jī)場(chǎng)通報(bào)“保潔員占母嬰室吃飯”:涉事人已被辭退 央視網(wǎng)消息:據(jù)@呼和浩特白塔國(guó)際機(jī)場(chǎng) 消息,呼和浩…

        2024年1月24日
      • 退休職工舉報(bào)局長(zhǎng)被判刑,被舉報(bào)人卻提級(jí)退休把人看懵了

        文|龍之朱 又見(jiàn)錯(cuò)抓錯(cuò)判上了熱搜。 據(jù)媒體報(bào)道,從2016年3月起,安徽宿州市碭山縣農(nóng)機(jī)局退休職工李平實(shí)名向紀(jì)檢部門(mén)舉報(bào)局長(zhǎng)王超經(jīng)濟(jì)問(wèn)題,均石沉大海。 2017年7月,李平夫婦及親…

        2024年1月24日
      • 6寸蛋糕用5斤車(chē)?yán)遄拥昙业狼?

        【#6寸蛋糕用5斤車(chē)?yán)遄拥昙业狼?:客服能力不足,多報(bào)了2斤車(chē)?yán)遄印?遇到商家虛假宣傳你會(huì)怎么辦# 近日,有網(wǎng)友發(fā)帖稱做六寸蛋糕需要5斤車(chē)?yán)遄右裏嶙h。 1月22日,涉事店家就“6寸…

        2024年1月24日
      • 格蘭芬多院徽簡(jiǎn)筆畫(huà)(格蘭芬多院徽)

        哈利波特的霍格沃茨學(xué)校分別是哪些學(xué)院? 1、《哈利波特》電影中的霍格沃茨學(xué)院,一共分為四個(gè)學(xué)院,分別是:格蘭芬多、赫奇帕奇、拉文克勞與斯萊特林。 2、霍格沃茨魔法學(xué)院共有格蘭芬多、…

        2024年1月24日

      聯(lián)系我們

      聯(lián)系郵箱:admin#wlmqw.com
      工作時(shí)間:周一至周五,10:30-18:30,節(jié)假日休息