<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        This is a Japanese sentence-LUKE model.
        日本語用Sentence-LUKEモデルです。
        日本語Sentence-BERTモデルと同一のデータセットと設定で學習しました。
        手元の非公開データセットでは、日本語Sentence-BERTモデルと比べて定量的な精度が同等?0.5pt程度高く、定性的な精度は本モデルの方が高い結果でした。
        事前學習済みモデルとしてstudio-ousia/luke-japanese-base-liteを利用させていただきました。
        推論の実行にはSentencePieceが必要です(pip install sentencepiece)。


        使い方

        from transformers import MLukeTokenizer, LukeModel
        import torch
        class SentenceLukeJapanese:
        def __init__(self, model_name_or_path, device=None):
        self.tokenizer = MLukeTokenizer.from_pretrained(model_name_or_path)
        self.model = LukeModel.from_pretrained(model_name_or_path)
        self.model.eval()
        if device is None:
        device = "cuda" if torch.cuda.is_available() else "cpu"
        self.device = torch.device(device)
        self.model.to(device)
        def _mean_pooling(self, model_output, attention_mask):
        token_embeddings = model_output[0] #First element of model_output contains all token embeddings
        input_mask_expanded = attention_mask.unsqueeze(-1).expand(token_embeddings.size()).float()
        return torch.sum(token_embeddings * input_mask_expanded, 1) / torch.clamp(input_mask_expanded.sum(1), min=1e-9)
        @torch.no_grad()
        def encode(self, sentences, batch_size=8):
        all_embeddings = []
        iterator = range(0, len(sentences), batch_size)
        for batch_idx in iterator:
        batch = sentences[batch_idx:batch_idx + batch_size]
        encoded_input = self.tokenizer.batch_encode_plus(batch, padding="longest",
        truncation=True, return_tensors="pt").to(self.device)
        model_output = self.model(**encoded_input)
        sentence_embeddings = self._mean_pooling(model_output, encoded_input["attention_mask"]).to('cpu')
        all_embeddings.extend(sentence_embeddings)
        return torch.stack(all_embeddings)
        MODEL_NAME = "sonoisa/sentence-luke-japanese-base-lite"
        model = SentenceLukeJapanese(MODEL_NAME)
        sentences = ["暴走したAI", "暴走した人工知能"]
        sentence_embeddings = model.encode(sentences, batch_size=8)
        print("Sentence embeddings:", sentence_embeddings)

        數據統計

        數據評估

        sonoisa/sentence-luke-japanese-base-lite瀏覽人數已經達到395,如你需要查詢該站的相關權重信息,可以點擊"5118數據""愛站數據""Chinaz數據"進入;以目前的網站數據參考,建議大家請以愛站數據為準,更多網站價值評估因素如:sonoisa/sentence-luke-japanese-base-lite的訪問速度、搜索引擎收錄以及索引量、用戶體驗等;當然要評估一個站的價值,最主要還是需要根據您自身的需求以及需要,一些確切的數據則需要找sonoisa/sentence-luke-japanese-base-lite的站長進行洽談提供。如該站的IP、PV、跳出率等!

        關于sonoisa/sentence-luke-japanese-base-lite特別聲明

        本站OpenI提供的sonoisa/sentence-luke-japanese-base-lite都來源于網絡,不保證外部鏈接的準確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2023年 6月 20日 上午2:38收錄時,該網頁上的內容,都屬于合規合法,后期網頁的內容如出現違規,可以直接聯系網站管理員進行刪除,OpenI不承擔任何責任。

        相關導航

        Trae官網

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 国产亚洲人成无码网在线观看| 免费中文字幕在线| 亚洲色欲或者高潮影院| 99久久人妻精品免费二区| 亚洲图片一区二区| h在线观看视频免费网站| 亚洲乱码卡三乱码新区| 在线观看视频免费完整版| 亚洲妇女熟BBW| 四虎影院免费视频| 美女被暴羞羞免费视频| 亚洲电影日韩精品| 久久久久久久久久免免费精品 | 最近高清中文字幕无吗免费看| 亚洲精品午夜在线观看| 日韩欧毛片免费视频 | 视频免费1区二区三区| 中文字幕人成人乱码亚洲电影 | 日本zzzzwww大片免费| 国产色在线|亚洲| 成人永久福利免费观看| 人人爽人人爽人人片av免费 | 免费看少妇高潮成人片| 亚洲男人的天堂在线| 日日夜夜精品免费视频| 中国极品美軳免费观看| 亚洲色图在线观看| 好男人视频社区精品免费| 一本久久免费视频| 亚洲av女电影网| 免费看www视频| 成全在线观看免费观看大全 | 亚洲成av人在线观看网站| 日本亚洲国产一区二区三区| 亚洲无砖砖区免费| 美女被吸屁股免费网站| 久久亚洲精品中文字幕无码| 夜夜嘿视频免费看| 日本免费高清视频| 亚洲精品乱码久久久久久V | 亚洲网站在线免费观看|