<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        This is a Japanese sentence-LUKE model.
        日本語用Sentence-LUKEモデルです。
        日本語Sentence-BERTモデルと同一のデータセットと設定で學習しました。
        手元の非公開データセットでは、日本語Sentence-BERTモデルと比べて定量的な精度が同等?0.5pt程度高く、定性的な精度は本モデルの方が高い結果でした。
        事前學習済みモデルとしてstudio-ousia/luke-japanese-base-liteを利用させていただきました。
        推論の実行にはSentencePieceが必要です(pip install sentencepiece)。


        使い方

        from transformers import MLukeTokenizer, LukeModel
        import torch
        class SentenceLukeJapanese:
        def __init__(self, model_name_or_path, device=None):
        self.tokenizer = MLukeTokenizer.from_pretrained(model_name_or_path)
        self.model = LukeModel.from_pretrained(model_name_or_path)
        self.model.eval()
        if device is None:
        device = "cuda" if torch.cuda.is_available() else "cpu"
        self.device = torch.device(device)
        self.model.to(device)
        def _mean_pooling(self, model_output, attention_mask):
        token_embeddings = model_output[0] #First element of model_output contains all token embeddings
        input_mask_expanded = attention_mask.unsqueeze(-1).expand(token_embeddings.size()).float()
        return torch.sum(token_embeddings * input_mask_expanded, 1) / torch.clamp(input_mask_expanded.sum(1), min=1e-9)
        @torch.no_grad()
        def encode(self, sentences, batch_size=8):
        all_embeddings = []
        iterator = range(0, len(sentences), batch_size)
        for batch_idx in iterator:
        batch = sentences[batch_idx:batch_idx + batch_size]
        encoded_input = self.tokenizer.batch_encode_plus(batch, padding="longest",
        truncation=True, return_tensors="pt").to(self.device)
        model_output = self.model(**encoded_input)
        sentence_embeddings = self._mean_pooling(model_output, encoded_input["attention_mask"]).to('cpu')
        all_embeddings.extend(sentence_embeddings)
        return torch.stack(all_embeddings)
        MODEL_NAME = "sonoisa/sentence-luke-japanese-base-lite"
        model = SentenceLukeJapanese(MODEL_NAME)
        sentences = ["暴走したAI", "暴走した人工知能"]
        sentence_embeddings = model.encode(sentences, batch_size=8)
        print("Sentence embeddings:", sentence_embeddings)

        數據評估

        sonoisa/sentence-luke-japanese-base-lite瀏覽人數已經達到400,如你需要查詢該站的相關權重信息,可以點擊"5118數據""愛站數據""Chinaz數據"進入;以目前的網站數據參考,建議大家請以愛站數據為準,更多網站價值評估因素如:sonoisa/sentence-luke-japanese-base-lite的訪問速度、搜索引擎收錄以及索引量、用戶體驗等;當然要評估一個站的價值,最主要還是需要根據您自身的需求以及需要,一些確切的數據則需要找sonoisa/sentence-luke-japanese-base-lite的站長進行洽談提供。如該站的IP、PV、跳出率等!

        關于sonoisa/sentence-luke-japanese-base-lite特別聲明

        本站OpenI提供的sonoisa/sentence-luke-japanese-base-lite都來源于網絡,不保證外部鏈接的準確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2023年 6月 20日 上午2:38收錄時,該網頁上的內容,都屬于合規合法,后期網頁的內容如出現違規,可以直接聯系網站管理員進行刪除,OpenI不承擔任何責任。

        相關導航

        蟬鏡AI數字人

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 免费大片av手机看片| 久久久久国产精品免费网站| 国产亚洲午夜高清国产拍精品| 丁香花在线观看免费观看图片| 精品日韩亚洲AV无码| 女人张腿给男人桶视频免费版 | 亚洲制服丝袜第一页| 国产又大又粗又硬又长免费 | 亚洲成A人片在线观看无码3D | 亚洲免费福利视频| 国产aa免费视频| 99热免费在线观看| 国产成人亚洲精品电影| 亚洲视频2020| 亚洲av无码不卡私人影院| 永久免费视频网站在线观看| 色婷婷亚洲一区二区三区| 亚洲欧洲日产国产综合网| 免费v片在线观看| 日本高清在线免费| 久久国产精品免费一区二区三区| 亚洲区视频在线观看| 亚洲午夜久久久久妓女影院| 四虎成人免费影院网址| 日本在线免费播放| 日亚毛片免费乱码不卡一区| 国产亚洲国产bv网站在线| 亚洲VA中文字幕不卡无码| 免费又黄又爽的视频| 日韩在线免费视频| 无码囯产精品一区二区免费| 男女啪啪免费体验区| 亚洲色精品三区二区一区| 亚洲第一精品电影网| 亚洲av无码国产精品色午夜字幕| 四虎影库久免费视频| 日韩av无码成人无码免费| 8x网站免费入口在线观看| 高清永久免费观看| 一级特级女人18毛片免费视频| 亚洲人av高清无码|