About 95,100,000 results
Open links in new tab
  1. 在计算机领域token有多少种意思? - 知乎

    int(关键字token) a(标识符token) =(操作符token) 1(数字token) ;(分隔符token) 就像把一句话拆分成一个个词语那样简单 AI/NLP领域的token 这是最近特别被人熟知,即使是不学 …

  2. 大模型的token究竟是什么? - 知乎

    这些 token ID 接着被映射为高维的实数向量,也就是 embeddings(词嵌入向量)。 通常这些向量的维度可能是 512、1024 或更高。 这些嵌入向量能够捕捉 token 之间的语义关系:相似的 …

  3. 用transformer做视觉,具体是怎么把图片转成token的? - 知乎

    这些图像的token意义上等价于文本的token,都是原来信息的序列表示。 不同的是,文本的token是通过分词算法分到的subword,这些subword会被映射到字典的index;也就是说,文 …

  4. 我国日均 Token 消耗量已突破 30 万亿,这是一个什么量级的概 …

    假设咱们就把 30万亿 Token 数 当做 30万亿字数,来看看这是个什么规模的数据: 第 12 版《新华字典》总字数约 72 万字,日均 Token 消耗 30万亿,至少相当于 4166 万本 《新华字典》。

  5. 在中文 NLP 等论文中,应该如何翻译 token 这个词? - 知乎

    Jun 22, 2021 · 在NLP里面,A token is a string of contiguous characters between two spaces, or between a space and punctuation marks. A token can also be an integer, real, or a number …

  6. NLP领域中的token和tokenization到底指的是什么? - 知乎

    Token对应着文本中的一个元素,通过Tokenization将文本划分成一个个的Token。 例如上面的图片,在句子 “We love NLP” 中, “We”、“love”、“NLP” 分别是三个Token。 而在中文的处理 …

  7. Bearer Token 到底是什么? - 知乎

    Bearer Token是 OAuth 2.0 中的访问令牌,但其前缀 Bearer 让人迷惑: 熊?! 其实这个格式相当古老,1996年开辟HTTP的 RFC 1945 中就定义了 挑战 - 响应 的认证框架: 当客户端访问服 …

  8. 如何看待 Google 最新开源的 Gemma-3 系列大模型? - 知乎

    Gemma-3花了600多秒,估计是token超了,结果还处于死循环中,可以看到它对于数学和逻辑表现出的性能非常的差。 QwQ32B,干脆利落,直接解决了。 按现在的趋势来看,未来的天下 …

  9. 为什么大模型输入输出往往只有2K, 4K token? - 知乎

    Jun 14, 2023 · 每个token只能Attend它左边相邻的L个token(图2)。 每个token只能Attend它左边部分token,这些attened token用如下方法选出:从自己开始往左边数,每隔L就选中一个可以 …

  10. 如何减少大模型 token 的消耗? - 知乎

    动态token预算:根据模型能力分配输入输出配额,例如GPT-3.5-turbo设置max_input=3000、max_output=1000 语义缓存:重复查询(如"公司地址")直接返回缓存结果,命中时token成本 …