av天堂久久天堂色综合,最近中文字幕mv免费高清在线,在线a级毛片免费视频,av动漫,中文字幕精品亚洲无线码一区

微信掃一掃,關(guān)注公眾號

  • 科技行者

  • 算力行者

見證連接與計(jì)算的「力量」

首頁 AI大模型"減肥"新突破:MWS AI團(tuán)隊(duì)讓語言模型變小卻更聰明

AI大模型"減肥"新突破:MWS AI團(tuán)隊(duì)讓語言模型變小卻更聰明

2025-10-21 12:47
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-10-21 12:47 ? 科技行者

這項(xiàng)由MWS AI公司和ITMO大學(xué)聯(lián)合完成的研究發(fā)表于2025年10月,論文編號為arXiv:2509.22075v2。研究團(tuán)隊(duì)包括來自MWS AI的Dmitriy Shopkhoev、Denis Makhov、Magauiya Zhussip和Stamatios Lefkimmiatis,以及來自ITMO大學(xué)的Ammar Ali。有興趣深入了解的讀者可以通過該論文編號查詢完整研究報(bào)告。

現(xiàn)在的大型語言模型就像一臺超級智能的機(jī)器,能夠回答各種問題、寫文章、翻譯語言,但有一個(gè)大問題:它們實(shí)在太"胖"了。這些模型需要占用大量的計(jì)算機(jī)內(nèi)存和處理能力,就像一輛裝滿行李的重型卡車,雖然功能強(qiáng)大,但開起來費(fèi)油又緩慢。對于想在手機(jī)、平板電腦或者小型服務(wù)器上運(yùn)行這些智能助手的人來說,這簡直是個(gè)噩夢。

為了解決這個(gè)問題,研究人員們想出了各種"減肥"方法。最流行的一種方法叫做"低秩分解",可以把它理解為把一個(gè)復(fù)雜的大拼圖拆解成幾個(gè)簡單的小拼圖。但是這種方法有個(gè)致命缺陷:它假設(shè)所有的拼圖碎片都必須遵循同一個(gè)模式,就像強(qiáng)制要求所有人都穿同一個(gè)尺碼的衣服一樣,結(jié)果往往是不合身的。

MWS AI的研究團(tuán)隊(duì)提出了一個(gè)叫做CoSpaDi的全新解決方案,它的全名是"通過稀疏字典學(xué)習(xí)的壓縮"。這個(gè)方法就像是為每個(gè)人量身定制衣服的裁縫鋪,而不是強(qiáng)制大家穿統(tǒng)一制服的工廠。

一、傳統(tǒng)壓縮方法的局限性

要理解CoSpaDi的創(chuàng)新之處,我們首先需要了解傳統(tǒng)方法的問題。目前最主流的模型壓縮技術(shù)叫做"奇異值分解"(SVD),這就像是把一幅復(fù)雜的馬賽克畫分解成幾個(gè)簡單的色彩圖層。每一層都用相同的顏色調(diào)色板,最后把所有圖層疊加起來,希望能重現(xiàn)原畫的效果。

這種方法的核心思想是假設(shè)所有的畫面內(nèi)容都可以用同一套基礎(chǔ)顏色來表達(dá)。就好比一個(gè)畫家只用紅、黃、藍(lán)三種基礎(chǔ)顏色來畫所有的畫作,無論是風(fēng)景畫還是人物畫,都必須用這三種顏色的不同搭配來完成。雖然理論上三原色確實(shí)可以調(diào)出各種顏色,但在實(shí)際應(yīng)用中,這種限制往往導(dǎo)致畫面失去許多細(xì)節(jié)和層次感。

研究團(tuán)隊(duì)發(fā)現(xiàn),語言模型中的知識就像一個(gè)巨大的圖書館,里面有科學(xué)書籍、文學(xué)作品、歷史資料等各種不同類型的內(nèi)容。傳統(tǒng)的壓縮方法就像是用同一套索引系統(tǒng)來管理所有這些不同類型的書籍,結(jié)果是某些領(lǐng)域的知識變得難以準(zhǔn)確檢索,模型的整體性能因此下降。

更具體地說,當(dāng)我們把一個(gè)包含數(shù)十億參數(shù)的大型語言模型用傳統(tǒng)方法壓縮時(shí),就像是把一個(gè)裝滿各種精密零件的工具箱強(qiáng)行塞進(jìn)一個(gè)標(biāo)準(zhǔn)化的小盒子里。雖然盒子變小了,但許多重要的零件可能會(huì)被損壞或丟失,導(dǎo)致工具的功能大打折扣。

二、CoSpaDi的核心創(chuàng)新思路

CoSpaDi采用了一種全新的思路,它不再強(qiáng)制所有內(nèi)容使用同一套表達(dá)方式,而是像一個(gè)智能的私人管家,為每一類知識提供最適合的存儲(chǔ)和檢索方法。

具體來說,CoSpaDi使用了"稀疏字典學(xué)習(xí)"的技術(shù)??梢园堰@個(gè)過程想象成建造一個(gè)超級智能的圖書館。傳統(tǒng)方法是給每個(gè)書架都配備完全相同的分類系統(tǒng),而CoSpaDi則是為每類書籍設(shè)計(jì)專門的儲(chǔ)存方式:科學(xué)書籍有專門的理科書架,文學(xué)作品有專門的文藝書架,歷史資料有專門的史學(xué)書架。每本書只需要記錄它在哪個(gè)專門書架上,而不需要強(qiáng)制適應(yīng)一個(gè)通用的分類系統(tǒng)。

這種方法的巧妙之處在于"稀疏性"這個(gè)概念。在現(xiàn)實(shí)生活中,當(dāng)你想表達(dá)一個(gè)復(fù)雜的想法時(shí),你不需要用到字典里的每一個(gè)詞匯,而是從龐大的詞匯庫中選擇最合適的幾個(gè)詞來組合表達(dá)。CoSpaDi就是基于這個(gè)原理工作的:它建立了一個(gè)龐大的"概念詞典",每當(dāng)需要表達(dá)某個(gè)知識點(diǎn)時(shí),只需要從這個(gè)詞典中挑選最相關(guān)的幾個(gè)"概念詞匯"進(jìn)行組合。

舉個(gè)更加生動(dòng)的例子,假設(shè)你是一位廚師,需要做各種不同的菜肴。傳統(tǒng)的壓縮方法就像是規(guī)定你只能使用鹽、糖、醋這三種調(diào)料來做所有的菜,無論是川菜還是粵菜,都必須用這三種調(diào)料的不同比例來調(diào)味。而CoSpaDi的方法則是為你準(zhǔn)備了一個(gè)裝有數(shù)百種調(diào)料的調(diào)料庫,做川菜時(shí)你可以選擇花椒、豆瓣醬、辣椒等合適的調(diào)料,做粵菜時(shí)你可以選擇生抽、老抽、蠔油等,每道菜都能使用最適合它的調(diào)料組合。

三、數(shù)據(jù)感知的智能優(yōu)化

CoSpaDi的另一個(gè)重要?jiǎng)?chuàng)新是引入了"數(shù)據(jù)感知"的概念。傳統(tǒng)的壓縮方法就像是一個(gè)盲人在整理房間,只能憑感覺把東西裝進(jìn)箱子里,完全不知道這些東西實(shí)際上是如何被使用的。而CoSpaDi則像是一個(gè)細(xì)心的管家,它會(huì)先觀察主人平時(shí)是如何使用這些物品的,然后根據(jù)使用習(xí)慣來決定最佳的整理方式。

在技術(shù)實(shí)現(xiàn)上,研究團(tuán)隊(duì)讓CoSpaDi在壓縮過程中"觀察"一小部分真實(shí)的數(shù)據(jù),了解模型在實(shí)際工作時(shí)是如何處理信息的。這就像是讓裁縫在做衣服之前先測量客人的身材,而不是盲目地按照標(biāo)準(zhǔn)尺寸制作。通過這種方式,CoSpaDi能夠確保壓縮后的模型在處理真實(shí)任務(wù)時(shí)仍然保持良好的性能。

具體的工作過程可以這樣理解:研究團(tuán)隊(duì)會(huì)準(zhǔn)備一小批具有代表性的文本樣本,就像是餐廳老板在制定菜單前先了解顧客的口味偏好一樣。CoSpaDi會(huì)分析這些樣本,了解模型在處理不同類型文本時(shí)需要激活哪些"知識模塊",然后據(jù)此優(yōu)化壓縮策略,確保那些經(jīng)常被使用的重要知識得到更好的保護(hù)。

這種數(shù)據(jù)感知的方法特別適合解決一個(gè)關(guān)鍵問題:如何在大幅減少模型體積的同時(shí),盡可能保持模型的核心能力。傳統(tǒng)方法往往是"一刀切"地刪除信息,就像是用推土機(jī)拆房子,雖然效率高但很容易破壞重要結(jié)構(gòu)。而CoSpaDi則像是精細(xì)的拆遷工程,會(huì)仔細(xì)評估每一部分的重要性,優(yōu)先保護(hù)那些對整體功能最關(guān)鍵的部分。

四、跨層字典共享的創(chuàng)新設(shè)計(jì)

除了單層優(yōu)化,CoSpaDi還提出了一個(gè)叫做"跨層字典共享"的巧妙設(shè)計(jì)。要理解這個(gè)概念,我們可以把語言模型想象成一棟摩天大樓,每一層樓都有自己的功能:底層可能負(fù)責(zé)理解基礎(chǔ)語法,中層負(fù)責(zé)理解詞匯含義,高層負(fù)責(zé)理解復(fù)雜的邏輯關(guān)系。

傳統(tǒng)的壓縮方法會(huì)為每一層樓都配備一套完全獨(dú)立的設(shè)備和工具,這樣雖然確保了每層的獨(dú)立性,但也造成了大量的重復(fù)和浪費(fèi)。CoSpaDi的跨層共享就像是在整棟大樓中建立一個(gè)公共的工具庫和設(shè)備間,不同樓層可以共享某些通用的工具和設(shè)備。

舉個(gè)具體的例子,在處理語言時(shí),不同層級的神經(jīng)網(wǎng)絡(luò)往往需要識別相似的語言模式。比如識別"主語-謂語-賓語"這樣的基本語法結(jié)構(gòu),或者理解"因果關(guān)系"這樣的邏輯聯(lián)系。CoSpaDi發(fā)現(xiàn)這些基礎(chǔ)的語言理解能力可以在多個(gè)層級之間共享,就像是多個(gè)部門可以共用同一套辦公設(shè)備一樣。

這種共享機(jī)制的好處是雙重的:首先,它進(jìn)一步減少了模型的存儲(chǔ)需求,因?yàn)橄嗤墓δ苣K不需要在每一層都重復(fù)存儲(chǔ)。其次,它還能提高模型的學(xué)習(xí)效率,因?yàn)楣蚕淼闹R模塊能夠得到更多的訓(xùn)練機(jī)會(huì),變得更加穩(wěn)定和可靠。

五、壓縮比例的靈活控制

CoSpaDi的設(shè)計(jì)還考慮了不同應(yīng)用場景的需求。就像汽車有經(jīng)濟(jì)型、舒適型、豪華型等不同配置一樣,CoSpaDi允許用戶根據(jù)自己的具體需求選擇不同的壓縮級別。

研究團(tuán)隊(duì)測試了從20%到50%的不同壓縮比例。20%的壓縮意味著模型保留了原始大小的80%,這種壓縮適合對性能要求較高但存儲(chǔ)空間相對充裕的場景。而50%的壓縮則意味著模型縮小了一半,雖然性能會(huì)有所下降,但能夠在資源受限的設(shè)備上運(yùn)行。

這種靈活性的實(shí)現(xiàn)依賴于CoSpaDi的兩個(gè)關(guān)鍵參數(shù):字典大?。ㄓ卸嗌賯€(gè)"概念詞匯")和稀疏度(每次使用多少個(gè)"概念詞匯")。用戶可以根據(jù)自己的需求調(diào)整這兩個(gè)參數(shù),就像調(diào)節(jié)相機(jī)的光圈和快門速度一樣,在畫質(zhì)和文件大小之間找到最佳平衡點(diǎn)。

研究團(tuán)隊(duì)還發(fā)現(xiàn),通過降低存儲(chǔ)精度(類似于從高清照片改為標(biāo)清照片),可以進(jìn)一步節(jié)省存儲(chǔ)空間而不顯著影響模型性能。這種優(yōu)化策略讓CoSpaDi在實(shí)際應(yīng)用中更加實(shí)用。

六、實(shí)驗(yàn)結(jié)果的令人矚目表現(xiàn)

為了驗(yàn)證CoSpaDi的實(shí)際效果,研究團(tuán)隊(duì)進(jìn)行了大量的對比實(shí)驗(yàn)。他們選擇了多個(gè)主流的語言模型進(jìn)行測試,包括LLaMA-3.2 1B、Qwen-3 0.6B、LLaMA-3 8B等,這些模型就像是不同品牌不同規(guī)格的汽車,用來全面評估新技術(shù)的適用性。

實(shí)驗(yàn)結(jié)果令人印象深刻。在20%到50%的各種壓縮比例下,CoSpaDi都顯著優(yōu)于傳統(tǒng)的壓縮方法。具體來說,當(dāng)壓縮比例為30%時(shí),使用CoSpaDi壓縮的LLaMA-3 8B模型在平均準(zhǔn)確率上比傳統(tǒng)方法高出約10個(gè)百分點(diǎn),同時(shí)在文本生成的流暢性指標(biāo)上也表現(xiàn)更好。

更重要的是,CoSpaDi在處理不同類型任務(wù)時(shí)都表現(xiàn)出了良好的穩(wěn)定性。無論是回答常識問題、進(jìn)行閱讀理解,還是處理科學(xué)推理任務(wù),使用CoSpaDi壓縮的模型都能保持相對較高的性能水平。這就像是一輛經(jīng)過精心調(diào)校的汽車,無論在城市道路、高速公路還是山區(qū)路段都能穩(wěn)定行駛。

研究團(tuán)隊(duì)還特別測試了CoSpaDi在實(shí)際運(yùn)行時(shí)的計(jì)算效率。結(jié)果顯示,雖然CoSpaDi在理論計(jì)算復(fù)雜度上與傳統(tǒng)方法相當(dāng),但在實(shí)際應(yīng)用中,由于其稀疏性特征,往往能夠?qū)崿F(xiàn)更快的推理速度。這是因?yàn)槟P筒恍枰?jì)算所有的參數(shù),只需要處理那些被激活的部分,就像是一個(gè)智能的交通系統(tǒng),只在有車輛通過時(shí)才啟動(dòng)信號燈。

七、技術(shù)實(shí)現(xiàn)的巧妙細(xì)節(jié)

CoSpaDi的技術(shù)實(shí)現(xiàn)包含了許多精巧的設(shè)計(jì)細(xì)節(jié)。其中最核心的是K-SVD算法的應(yīng)用,這個(gè)算法就像是一個(gè)不斷學(xué)習(xí)和改進(jìn)的智能管家。它會(huì)反復(fù)觀察和分析數(shù)據(jù),逐步優(yōu)化字典的組成和使用方式。

具體的優(yōu)化過程分為兩個(gè)交替進(jìn)行的步驟。第一步叫做"稀疏編碼",就像是為每個(gè)需要表達(dá)的概念找到最合適的詞匯組合。算法會(huì)從龐大的概念字典中挑選出最相關(guān)的幾個(gè)元素來表達(dá)當(dāng)前的信息。第二步叫做"字典更新",就像是根據(jù)使用經(jīng)驗(yàn)不斷改進(jìn)詞典的內(nèi)容,讓每個(gè)概念表達(dá)得更準(zhǔn)確、更高效。

研究團(tuán)隊(duì)還引入了一個(gè)叫做"正交匹配追蹤"的技術(shù),這個(gè)技術(shù)就像是一個(gè)精明的采購員,能夠在預(yù)算有限的情況下挑選出最有價(jià)值的商品。它確保每次都能用最少的概念元素來準(zhǔn)確表達(dá)復(fù)雜的信息。

為了進(jìn)一步提高效率,CoSpaDi還采用了"功率迭代"的優(yōu)化策略。這種方法就像是反復(fù)練習(xí)直到達(dá)到熟練程度的學(xué)習(xí)過程,通過多次迭代來逐步改善字典的質(zhì)量。研究團(tuán)隊(duì)發(fā)現(xiàn),只需要進(jìn)行有限次數(shù)的迭代就能達(dá)到很好的效果,這使得整個(gè)壓縮過程既高效又實(shí)用。

八、與現(xiàn)有方法的全面比較

為了更好地展示CoSpaDi的優(yōu)勢,研究團(tuán)隊(duì)將其與多種現(xiàn)有的壓縮技術(shù)進(jìn)行了詳細(xì)比較。這些比較方法包括ASVD、SVD-LLM、Basis Sharing等主流技術(shù),以及ReplaceMe、LLM-Pruner等結(jié)構(gòu)化剪枝方法。

比較結(jié)果顯示,CoSpaDi在幾乎所有測試場景中都表現(xiàn)出了顯著優(yōu)勢。特別是在需要保持模型推理能力的任務(wù)中,CoSpaDi的優(yōu)勢更加明顯。例如,在處理復(fù)雜的多步推理問題時(shí),使用CoSpaDi壓縮的模型能夠保持更好的邏輯連貫性和準(zhǔn)確性。

值得注意的是,CoSpaDi在不同壓縮級別下都保持了良好的性能穩(wěn)定性。當(dāng)壓縮比例從20%增加到50%時(shí),傳統(tǒng)方法往往會(huì)出現(xiàn)性能的急劇下降,就像是過度節(jié)食導(dǎo)致的健康問題。而CoSpaDi則表現(xiàn)出了更平緩的性能衰減曲線,這表明其壓縮策略更加科學(xué)和合理。

研究團(tuán)隊(duì)還發(fā)現(xiàn),CoSpaDi與后續(xù)的量化技術(shù)(降低數(shù)值精度)有很好的兼容性。這意味著用戶可以先使用CoSpaDi進(jìn)行結(jié)構(gòu)壓縮,然后再應(yīng)用量化技術(shù)進(jìn)一步減小模型大小,實(shí)現(xiàn)更高的壓縮比例而不顯著損失性能。

九、實(shí)際應(yīng)用的廣闊前景

CoSpaDi的成功為大型語言模型的普及應(yīng)用開辟了新的可能性。在移動(dòng)設(shè)備上,使用CoSpaDi壓縮的模型可以為用戶提供更好的智能助手體驗(yàn),而不需要依賴云端服務(wù)器的支持。這就像是把一個(gè)功能強(qiáng)大的圖書館裝進(jìn)了你的口袋里,隨時(shí)隨地都能獲得智能幫助。

在邊緣計(jì)算場景中,CoSpaDi也展現(xiàn)出了巨大的應(yīng)用價(jià)值。許多企業(yè)和組織希望在本地部署智能系統(tǒng),既要保證數(shù)據(jù)安全和隱私,又要控制成本。CoSpaDi讓這種需求變得更加現(xiàn)實(shí)可行,就像是為每個(gè)家庭都配備了一個(gè)既聰明又節(jié)能的智能管家。

對于研究機(jī)構(gòu)和小型企業(yè)來說,CoSpaDi降低了使用先進(jìn)AI技術(shù)的門檻。以前只有大型科技公司才能負(fù)擔(dān)得起的計(jì)算資源需求,現(xiàn)在可能只需要一臺配置合理的服務(wù)器就能滿足。這種democratization(平民化)的效應(yīng)可能會(huì)激發(fā)更多創(chuàng)新應(yīng)用的出現(xiàn)。

研究團(tuán)隊(duì)還指出,CoSpaDi的方法論可以擴(kuò)展到其他類型的深度學(xué)習(xí)模型中。無論是圖像識別、語音處理,還是其他AI應(yīng)用領(lǐng)域,都可能從這種稀疏字典學(xué)習(xí)的思路中受益。

十、未來發(fā)展的思考與展望

雖然CoSpaDi已經(jīng)取得了令人矚目的成果,但研究團(tuán)隊(duì)也坦誠地指出了當(dāng)前方法的一些局限性和未來改進(jìn)的方向。目前使用的K-SVD算法雖然效果良好,但在處理超大規(guī)模模型時(shí)仍有計(jì)算效率上的挑戰(zhàn)。就像是一個(gè)優(yōu)秀的手工藝人,雖然作品精美,但生產(chǎn)速度有限。

未來的研究方向可能包括開發(fā)更高效的字典學(xué)習(xí)算法,以及探索更智能的容量分配策略。研究團(tuán)隊(duì)設(shè)想了一種自適應(yīng)的系統(tǒng),能夠根據(jù)不同模型層的重要性動(dòng)態(tài)調(diào)整壓縮策略,就像是一個(gè)能夠根據(jù)交通流量自動(dòng)調(diào)節(jié)紅綠燈時(shí)長的智能交通系統(tǒng)。

另一個(gè)有趣的研究方向是跨模型的字典共享。就像不同語言之間存在共同的語法概念一樣,不同的AI模型之間也可能存在可以共享的基礎(chǔ)知識結(jié)構(gòu)。如果能夠識別和利用這些共性,可能會(huì)進(jìn)一步提高壓縮效率和模型性能。

研究團(tuán)隊(duì)也在考慮如何讓CoSpaDi更好地與硬件優(yōu)化相結(jié)合。現(xiàn)代的AI專用芯片對稀疏計(jì)算有很好的支持,如果能夠充分利用這些硬件特性,CoSpaDi的實(shí)際運(yùn)行效率可能會(huì)得到顯著提升。

說到底,CoSpaDi代表了AI模型壓縮領(lǐng)域的一個(gè)重要突破。它不僅解決了大型語言模型部署的實(shí)際難題,更重要的是展示了一種全新的思路:與其強(qiáng)制所有信息適應(yīng)統(tǒng)一的表達(dá)方式,不如為每種信息找到最適合的表達(dá)方法。這種"因材施教"的理念可能會(huì)在未來的AI發(fā)展中發(fā)揮更大的作用。

對于普通用戶來說,CoSpaDi意味著他們很快就能在自己的設(shè)備上享受到更強(qiáng)大、更智能的AI助手服務(wù)。對于開發(fā)者和研究者來說,這項(xiàng)技術(shù)降低了AI應(yīng)用的開發(fā)和部署成本,可能會(huì)催生出更多創(chuàng)新的應(yīng)用場景。而對于整個(gè)AI行業(yè)來說,CoSpaDi的成功證明了在追求模型性能的同時(shí),我們同樣可以實(shí)現(xiàn)效率和可持續(xù)性的目標(biāo)。

Q&A

Q1:CoSpaDi壓縮技術(shù)與傳統(tǒng)的SVD壓縮方法相比有什么優(yōu)勢?

A:CoSpaDi最大的優(yōu)勢是靈活性更強(qiáng)。傳統(tǒng)SVD方法就像強(qiáng)制所有人穿同一尺碼的衣服,而CoSpaDi像量身定制,為每種知識類型提供最適合的存儲(chǔ)方式。實(shí)驗(yàn)顯示,在相同壓縮比例下,CoSpaDi壓縮的模型準(zhǔn)確率比傳統(tǒng)方法高出約10個(gè)百分點(diǎn),同時(shí)保持更好的推理能力。

Q2:使用CoSpaDi壓縮后的語言模型在手機(jī)等移動(dòng)設(shè)備上運(yùn)行效果如何?

A:CoSpaDi讓大型語言模型在移動(dòng)設(shè)備上運(yùn)行成為可能。通過20%-50%的壓縮比例,原本需要幾十GB存儲(chǔ)空間的模型可以縮減到適合手機(jī)運(yùn)行的大小,同時(shí)保持良好的智能對話和文本處理能力,讓用戶無需依賴云端服務(wù)就能獲得智能助手體驗(yàn)。

Q3:CoSpaDi技術(shù)的稀疏字典學(xué)習(xí)原理是什么,為什么比傳統(tǒng)方法更有效?

A:稀疏字典學(xué)習(xí)就像建造一個(gè)超級智能圖書館,為每類知識設(shè)計(jì)專門的存儲(chǔ)方式,而不是強(qiáng)制使用統(tǒng)一分類系統(tǒng)。每次表達(dá)概念時(shí),只需從龐大的"概念詞典"中選擇最相關(guān)的幾個(gè)元素組合,這樣既節(jié)省空間又保持準(zhǔn)確性,就像做菜時(shí)根據(jù)菜系選擇最合適的調(diào)料組合一樣。

分享至
0贊

好文章,需要你的鼓勵(lì)

推薦文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-