分享好友 最新动态首页 最新动态分类 切换频道
使用教程
2024-12-26 11:58

目录

使用教程

  • 安装教程
    • 在 Hugging Face 上在线部署(最方便)
    • 本地部署
    • 使用 Docker 部署
    • 远程部署
  • 使用教程
    • 更新功能
    • 配置 config.json
    • 使用 川虎助理川虎助理Pro
    • 使用 XMChat
    • 使用 MiniMax
    • 使用本地 LLM 模型
  • 功能说明
    • 额度显示
    • 模型选择
    • 实时传输回答
    • 单轮对话
    • 联网搜索回答
    • 根据文件回答
    • 对话气泡按钮
    • 微调 GPT 3.5
    • 高级参数
    • 网络设置

访问本项目的 Hugging Face页面,填入你的API-Key后,就可以直接和ChatGPT对话!无需注册无需代码,这是免费的。

您可以直接使用我的空间,这样能实时享受到最新功能。

Hugging Face的优点:免费,无需配置代理,部署容易(甚至不需要电脑)。
Hugging Face的缺点:不支持某些界面样式和效果,可能未使用最新的项目代码。

您也可以将项目复制为私人空间里使用,这样App反应可能会快一点。

你可以忽略这条提示,直接继续在你的私人空间中使用 川虎Chat。但事实上,如提示所写的那样,我们提供了填写环境变量来配置 川虎Chat 而无需编辑项目代码的方式。

如果你已经复制了Space,你可以在Space的Settings页面找到 这一栏,按下述指引新建并填写Secret:


  • 用于设置你的OpenAI API-Key,这样无需每次手动输入API-Key。通过这种方式设置,你的Key不会被泄漏。

  • 用于设置 OpenAI API 的基础 URL,默认为 。你可以将其设置为你自己修改部署的 API 地址。

  • 用于设置Space的语言,默认为英语。设置为 以显示中文, 以显示日文, 以显示英语, 以显示韩语。

  • 用于设置 ChatGPT 显示额度与用量时的上限,单位为美元,默认为120。

  • 设置为 将会隐藏本地模型。这是因为本地模型会消耗非常多的资源,免费版的CPU Space可能不够用。然而,经过实际测试, 可以在免费Space中跑起来,但速度非常慢(1-2秒一个字)。

推荐使用 git 下载安装和更新本项目。

什么是 git?怎么用 git 安装本项目?
  • 如果你不了解 git,可以查看 git是什么?、git 简明指南。
  • 如果您使用 Windows 系统,您可以从 这个下载页面 下载 git;对于 macOS 和 Linux 用户,您的系统中应该已经内置了git。

在命令行窗口中输入

按回车键,等待下载完成;
继续输入

回车,此时进入了项目文件夹。
现在,您已经完成本步()的所有操作,可以进一步进行下一步操作()。

或:从 Release zip 安装本项目

需要注意,您可能还是需要在系统中安装git来保证全部功能的正常运行。

如何在文件夹中进入终端或命令提示符?
  • 如果你使用Windows,应该在文件夹里按住右键,选择“在终端中打开”。如果没有这个选项,选择“在此处打开Powershell窗口”。
  • 如果你使用macOS,可以在Finder底部的路径栏中右键当前文件夹,选择。

现在,您已经完成本步()的所有操作,可以进一步进行下一步操作()。

  • 安装依赖

    请确保您已经安装Python,并且已经将pip加入环境变量。

    • 为了避免产生太多依赖问题,建议使用的 Python 版本为 Python 3.10 或 Python 3.11
    • (可选)如果您有相关环境配置的经验,可以在这一步新建环境

    在终端中输入下面的命令,然后回车。如果命令报错,请试试。

    如果下载慢,可以尝试为Pypi 配置豆瓣源,或者科学上网。

    如果你还想使用本地运行大模型的功能,请再执行下面的命令:

    • 如果您希望在Windows上使用本地大模型功能,建议通过WSL,在Linux上安装 川虎Chat。如果您不想只用CPU跑大模型,请先安装CUDA。
    • 关于本地运行大模型的功能,具体请参见:。
  • 填写项目配置

    您也可以略过本步骤,在第四步启动后直接在图形界面中填写您的API密钥。不过,如果您为自己或熟人部署 川虎Chat,我们建议您在这一步设定默认密钥、用户名密码以及更多设置。这样设置的密钥以及其他设置项可以在拉取项目更新之后保留。

    在项目文件夹中复制一份 ,并将其重命名为 ,在其中填入 API-Key、用户名密码(可选)、API host(可选)、代理地址(可选)等设置。用户名密码支持多用户。示例:

    • 更多项目配置说明请查看 配置 config.json。
  • 启动

    请使用下面的命令。取决于你的系统,你可能需要用或者命令。请确保你已经安装了Python。


  • 如果一切顺利,现在,你应该已经可以在浏览器地址栏中输入 查看并使用 川虎Chat 了。

    如果你在安装过程中碰到了问题,请先查看页面。

    如果您已经有下载好的本地模型,请将它们放在文件夹下面(文件名中需要包含//等相应关键字),模型们则需要放在文件夹下。

    关于本地运行大模型的功能,具体请参见:。


    我们更推荐用户执行手动安装以实现更可控的环境配置。
    需要注意,您可能还是需要在系统中安装 git 来保证全部功能的正常运行。

    1. 双击 ,一个命令行窗口将会出现,并自动执行各种安装命令。稍等片刻,浏览器应该会自动打开 供您使用 川虎Chat

      • 您未来仍可通过双击 来启动 川虎Chat

    如果您需要进一步配置 川虎Chat,请参见 配置 config.json。

    如果觉得手动部署比较麻烦,我们提供了 Docker 镜像,可以直接运行。

    Docker 镜像没有包含本地模型。若要使用本地模型,请参考安装本地模型所需的依赖。

    1. 创建文件夹

      创建存放 川虎Chat 配置和聊天记录的文件夹,例如 。

    2. 拉取镜像并获取配置文件

    3. 根据需求修改配置文件

      配置文件位于 。请根据需求修改配置文件。配置文件的详细说明请参考 配置 config.json。

    4. 运行 Docker 容器

      注:请根据配置文件实际情况修改 和 参数。

    您可以改变 中的配置,然后重启容器使配置生效。

    本地模型所需的依赖占用空间较大(>5GB),考虑到镜像体积,镜像中默认没有安装。如果您需要使用本地模型,请先按上述教程运行容器。然后通过以下命令进入容器:

    然后进入 目录,执行以下命令安装依赖:

    关于本地运行大模型的功能,具体请参见:。

    您可通过修改项目根目录下的 Dockerfile 来自定义容器镜像。然后执行以下命令构建镜像:

    这一部分会教你如何在公网服务器部署本项目。

    在 中设置

    注意将替换为实际的端口号。

    注意:配置反向代理不是必须的。如果需要使用域名,则需要配置 Nginx 反向代理。如果你碰到了网页右上角提示的问题,也可以尝试通过配置Nginx反向代理解决。

    又及:目前配置认证后,Nginx 必须配置 SSL,否则会出现 Cookie 不匹配问题。

    添加独立配置文件:

    修改配置文件(通常在),向http部分添加如下配置: (这一步是为了配置websocket连接,如之前配置过可忽略)

    为了同时配置域名访问和身份认证,需要配置SSL的证书,可以参考这篇博客一键配置。

    如果你的VPS 80端口与443端口没有被占用,且您倾向于使用 Docker,则可以考虑如下的方法,只需要将你的域名提前绑定到你的VPS 的IP即可。此方法由@iskoldt-X 提供。

    首先,运行nginx-proxy

    接着,运行acme-companion,这是用来自动申请TLS 证书的容器

    最后,运行我们提供的 Docker 镜像。

    如此即可为 川虎Chat 实现自动申请 TLS 证书并且开启 HTTPS。

    你可以配置是否启用更新检查,如果启用,你可以在图形界面中点击 按钮来检查更新。

    • : 启用检查更新(默认值)
    • : 禁用检查更新,同时UI中也不再显示检查更新按钮

    如果存在发行版更新,你可以点击 按钮来直接更新项目。更新将会通过 在后台自动执行,你可以在终端中检查更新状态。

    • 如果你对项目有自定义修改,不用担心,我们会尝试帮你合并代码,你的更改不会被覆盖。
    • 如果你的更改和最新的代码有冲突,我们会取消更新执行,并尝试将文件恢复到更新前的状态。你需要尝试手动更新,手动解决冲突。
    • 如果更新出现了问题,请检查终端输出内容。

    通过更新按钮获取的更新是发行版更新,不包含最新的代码(最新的代码可能存在bug,也可能解决了原先的bug)。如果你想要获取最新的主线代码,请参考手动更新。

    如果您使用和,则可以通过本项目提供的脚本检测仓库是否有更新,如果有,则拉取最新脚本、安装依赖、重启服务器。

    对应您的系统,您只需要运行或者即可。如果你还想始终保持最新版本,可以定时运行脚本。例如,在crontab中加入下面的内容:

    就可以每20分钟检查一次脚本更新。如果仓库主线(main)代码存在更新,则自动拉取最新主线代码并重启服务器。

    若您执行手动更新,您将获取我们最新的代码(可能存在bug,但也可能解决了原先的bug),而不是可能更稳定的发行版更新代码。

    1. 首先,获取最新的项目代码:

      • (若您之前使用git安装):

        1. 在项目文件夹中进入终端(git bash)

          注:如何在文件夹中进入终端或命令提示符(git bash)?
          • 如果你使用Windows,应该在文件夹里按住右键,选择“在终端中打开”。如果没有这个选项,选择“在此处打开Powershell窗口”。
          • 如果你使用macOS,可以在Finder底部的路径栏中右键当前文件夹,选择。
        2. 使用git拉取最新的代码:

          如果更新中止,可能是因为您对本地代码进行了修改,导致本地代码和最新代码有冲突。您需要手动解决冲突,具体操作请参考相关 教程。

      • (若您之前使用zip安装):

        1. 点击网页上的 下载最新代码并解压,
        2. 备份您原项目文件夹中的,
        3. 使用新下载的文件夹替换原项目文件夹,
        4. 将备份的放入新的项目文件夹中。
    2. 然后,再次安装依赖(可能本项目引入了新的依赖,或改变了依赖版本):

      如果运行程序无报错,继续使用即可。如果此时运行报错,您可能还需要更新一部分依赖:

    3. 最后,我们可能在 中提供了新的配置项,您可以根据更新说明和下面的说明,调整您原有的 文件进行配置。

    这份表格列出了各配置项的基本情况与说明,具体细节可以点击链接查看。

    配置项 可选值 说明 对应环境变量 () 你的OpenAI API Key 你的 Google PaLM API Key () 你的 XMChat API Key 你的 MiniMax API Key 你的 MiniMax Group ID , 若使用 azure 的 openai api key,请将该配置项设为,并填写下面的azure配置 N/A * 你的 Azure OpenAI API Key,用于 Azure OpenAI 对话模型 N/A * 你的 Azure Base URL N/A * () 你的 Azure OpenAI API 版本 N/A * 你的 Azure OpenAI Chat 模型 Deployment 名称 N/A * 你的 Azure OpenAI Embedding 模型 Deployment 名称 N/A * () 你的 Azure OpenAI Embedding 模型名称 N/A , , , , 设置语言 * 设置用户登录密码 N/A Bool 是否在本地编制索引 N/A Bool 未登录时隐藏历史对话记录 N/A Bool 配置检查更新 N/A String 默认使用的模型 N/A , , (URL) 语言模型头像,见配置头像 N/A , , (URL) 用户头像,见配置头像 N/A 川虎助手使用的模型,见 使用川虎助理与川虎助理pro N/A 见 使用川虎助理与川虎助理pro N/A 见 使用川虎助理与川虎助理pro N/A 见 使用川虎助理与川虎助理pro N/A 见 使用川虎助理与川虎助理pro N/A Bool 是否显示 OpenAI API用量,见 额度显示 你的OpenAI sensitive id,见 额度显示 Num API Key的当月限额,见 额度显示 Bool 是否使用旧版 API 用量查询接口(OpenAI现已关闭该接口,但是如果你在使用第三方 API,第三方可能仍然支持此接口),见 额度显示 , , , 设置LaTeX渲染参数 N/A –– Bool 是否默认认为PDF是双栏的 N/A * Bool 是否多个API Key轮换使用 N/A * 用于轮换使用的多个API Key N/A * 你希望使用的OpenAI API的基础URL * 你希望使用的代理 * 你希望使用的代理 * 自定义ip N/A * 自定义端口 N/A * Bool 是否使用gradio创建公网分享链接 N/A * List[String] 可用的模型列表,将覆盖默认的可用模型列表 N/A * List[String] 额外的模型,将添加到可用的模型列表之后 N/A

    (表格中,标注星号(*)的为可选配置项,括号()内的配置可选值为示例。)

    在文件中的user字段,按照的方式设定多个用户。

    多用户示例:

    单个用户示例:

    若不设置用户名与密码,可以直接将"users"字段整段删去,或留空设置为:

    • : 自动检测系统环境语言
    • : 中文
    • : English
    • : 日本語
    • : 한국어

    Note

    We would greatly appreciate it if you could help contribute a translation. Please refer to page for more information.

    • : 不显示头像,仅有对话气泡
    • : 显示默认头像。注意,如果该配置项空缺,也会显示默认头像
    • (URL): 显示自定义头像。可接受的URL包括网络地址,本地文件地址(需要存放在项目文件夹下,并正确配置路径)。以及Data URL(如以base64编码的图片)——(20230830版本移除了Data URL支持)

    示例:

    ntent="{ ... "bot_avatar": "none", "user_avatar": "https://www.apple.com.cn/leadership/images/overview/ceo_image.jpg", ... } ">
        ...
        : 
        : 
        ...
    
    • : 未登录时隐藏历史对话记录
    • : 未登录时显示历史对话记录(默认值)

    如果多人使用,我们更建议您为每个用户分别设置用户名和登录密码,此时每个用户的历史记录是独立的,不会相互影响,能够较好地保护隐私。

    如果您不想设置用户名和密码,可以将 设置为 ,这样将不再展示对话历史记录列表。不过,对于多人使用,我们并不推荐这种方法。

    • 从 20230709 版本开始,您可以在 中设定 LaTeX 的渲染参数:

      • : 渲染 或 形式的行内代码,渲染 或 形式的行间代码(默认值);
      • : 在 default 基础上禁用 渲染行间代码;
      • : 在 default 基础上还支持渲染 、等环境;
      • : 不渲染任何形式的 LaTeX 公式。

    • 在 20230614 至 20230628 版本中,因为 gradio 的更新,默认渲染LaTeX,且不再提供关闭选项。
    • 在 20230601 以及更早的版本中,您可以在 中设定是否开启LaTeX渲染。默认开启。

      需要注意的是,由于符号比较常用,在许多地方可能会被错误地渲染为行内公式。因此,请谨慎地开启该功能。

    川虎助理(Pro) 经过特殊配置,可以达到类似 Auto-GPT 与 ChatGPT Browser 的效果。在模型列表中选择之后,就可以让它帮你上网查资料、去Arxiv上翻论文、用Wolfram解方程,等等。

    • 川虎助理 能够检索互联网信息,但能力有限。
    • 川虎助理Pro 会调用 谷歌自定义搜索引擎、SerpApi 与 Wolfram Alpha 的API,以达到更好的效果。
      您需要自行申请并在 中按照注释填写这些 API Key。
    • 相比 GPT-3.5,设置川虎助理使用 GPT-4 可以达到更好的效果。

    注意,使用自主运行模型会耗费大量token,尤其当您使用GPT-4作为基准模型时,可能会产生相当昂贵的花销。请您务必监控和管理自己的token使用和相关成本,防止意外收费。

    1. 通过等候列表提交试用申请
    2. 部署 川虎Chat 后在模型列表中选择 XMChat,并填入您的 XMChat API-Key
    3. 在“上传索引文件”栏中上传图片,等待图片上传完成后,即可开始聊天。

    谢谢你,@noahzark! (#774)

    1. 申请 MiniMax API。
    2. 从 MiniMax 获取 API Key(不包含"Bearer "前缀)和 Group ID,填写在中。
    3. 现在你可以使用 MiniMax 了!支持对话、System Prompt、调节常见参数(n_choices, max_generation_token, top_p, temperature)

    以下的介绍默认您对计算机与环境配置有一定了解。这里以本地部署为例进行介绍。

    部署并使用本地大语言模型进行对话对计算机配置有比较高的要求。您可以到每个开源模型的Github介绍页查看具体的最低配置。一般而言,若要使用本功能,您可能至少需要:

    • 20GB 或更多磁盘空间(下载模型时请确保您有足够的磁盘空间)
    • 8GB 或更高的GPU显存(某些模型可能需要在专业图形卡上运行)

    如果您使用Windows,请通过 WSL 在 Linux 上安装 川虎Chat,否则很可能无法正常安装 DeepSpeed 等多个依赖。

    为了避免该项目与您的其他机器学习项目环境冲突,我们建议首先创建一个虚拟环境(您需要先安装 Anaconda 或 Miniconda):

    然后,安装依赖:

    下载与安装可能会持续比较久的时间,您需要确保网络状态的稳定。

    另外,一般而言,如果您准备使用 GPU 运行这些大语言模型,您还应当安装CUDA Toolkit。

    如果环境顺利配置,您现在应当能成功在浏览器中启动 川虎Chat。不过,大语言模型必须先加载到您的计算机本地才能使用。

    为方便用户使用,我们提供了自动下载模型的功能。当您在模型下拉列表中选取大语言模型时,程序将自动从对应的Hugging Face模型仓库中下载模型文件,这些模型将会被存储在 文件夹中。

    • 默认自动下载的 StableLM 模型为 StableLM-Tuned-Alpha-7B
    • 默认自动下载的 MOSS 模型为 MOSS-Moon-003-SFT

    您也可以手动下载并管理模型文件。首先确保您已经安装 git-lfs。我们默认您的终端位于项目文件夹。

    对应具体的大语言模型,第三行可以被分别替换为:

    • ChatGLM
      • ChatGLM-6B
      • ChatGLM-6B-INT8
      • ChatGLM-6B-INT4
    • ChatGLM2
      • ChatGLM2-6B
      • ChatGLM2-6B-INT4
      • ChatGLM2-6B-32K
      • ChatGLM2-6B-32K-INT4
    • StableLM
      • StableLM-Base-Alpha-3B
      • StableLM-Base-Alpha-7B
      • StableLM-Tuned-Alpha-3B
      • StableLM-Tuned-Alpha-7B
    • LLaMA
      • LLaMA-7B-HF
      • LLaMA-13B-HF
      • LLaMA-33B-HF
      • LLaMA-65B-HF
    • MOSS
      • MOSS-Moon-003-Base
      • MOSS-Moon-003-SFT
      • MOSS-Moon-003-SFT-Plugin

    对于 LLaMA 模型,您还可以手动下载微调的 LoRA 模型,只要将模型文件夹放置在本项目的 文件夹下即可。

    • 这里提供了一些 LoRA 模型。
    • 当然,您还可以使用其他开源的 LoRA 模型,如 Baize-lora-7B,甚至是您自己训练的LoRA模型~

    • 需要先安装CMake。

    • 需要先安装CUDA Toolkit

    • 参见:#655

    • 需要使用一些手段使你能稳定连接github。如果你使用WSL,注意WSL的网络可能也需要特殊配置使其能稳定连接github。

    2023年7月起,OpenAI 再次更改了余额查询的相关接口,需要在请求头中包含用户当期登录 session 的 才能查询到余额。由于获取 较为复杂同时不够稳定,我们默认关闭了余额显示功能。

    如果您在使用OpenAI官方API,且希望使用额度显示功能,请首先将 设置为 :

    并在 中填写您本次登录的 ,其格式类似于: 。

    如果您需要在 Hugging Face 的 Space 中设置,对应的 Secret 为 。

    不过,如果你在使用第三方 API,第三方可能仍然支持使用老接口获取用量,此时你不必填写,只需要将 设置为 即可:

    另外,你还可以在 中设定额度上限。单位为美元,默认值为120。

    这里的数据来自 OpenAI 的理论值,不过,实际体验可能被限制,某些模型可能无法调用。

    LATEST MODEL DESCRIPTION MAX TOKENS TRAINING DATA gpt-3.5-turbo Most capable GPT-3.5 model and optimized for chat at 1/10th the cost of text-davinci-003. Will be updated with our latest model iteration. 4,096 tokens Up to Sep 2021 gpt-3.5-turbo-0301 Snapshot of gpt-3.5-turbo from March 1st 2023. Unlike gpt-3.5-turbo, this model will not receive updates, and will be deprecated 3 months after a new version is released. 4,096 tokens Up to Sep 2021 gpt-4 More capable than any GPT-3.5 model, able to do more complex tasks, and optimized for chat. Will be updated with our latest model iteration. 8,192 tokens Up to Sep 2021 gpt-4-0314 Snapshot of gpt-4 from March 14th 2023. Unlike gpt-4, this model will not receive updates, and will be deprecated 3 months after a new version is released. 8,192 tokens Up to Sep 2021 gpt-4-32k Same capabilities as the base gpt-4 mode but with 4x the context length. Will be updated with our latest model iteration. 32,768 tokens Up to Sep 2021 gpt-4-32k-0314 Snapshot of gpt-4-32 from March 14th 2023. Unlike gpt-4-32k, this model will not receive updates, and will be deprecated 3 months after a new version is released. 32,768 tokens Up to Sep 2021

    需要勾选“使用在线搜索”。

    启用后,将使用 Google 或 Duckduckgo 检索网络信息再返回回答,能达到类似于 New Bing 的效果。视能检索到的互联网信息的丰富与准确与否,回答效果较原来可能有所提升。

    由于搜索引擎公司的反爬虫技术,这项功能可能不够稳定。如有更多需要联网信息的需要,可以使用。
    该功能可能需要耗费更多的token。

    需要先在“模型”选项卡的“上传”区上传文件。支持 PDF、txt、docx 等格式。

    上传后,将对本地文件进行索引,模型将针对文件内容进行回答。当您已经上传并索引完成一个文件后,且您没用清除本项目的缓存,若您在之后重新试图上传该文件,本程序将自动寻找并使用之前的索引,不会重复索引。

    索引功能可能需要耗费更多的token。

    需要注意,回复语言的选择只针对联网搜索和根据文件回答功能,普通的对话并不能设定回复语言(除非您在System Prompt中自己写入)。

    数据集需要为符合 OpenAI 要求 的 格式或者 Excel 格式。Excel 的格式要求为:

    • 表头(第一行)为、和可选的。这三个的顺序不影响什么,但一个字都不能改。
    • 提问就是用户提问,答案就是预期 GPT 的回答,系统就是训练时使用的 System Prompt。

    也就是说,Excel 的格式为:

    提问 答案 系统 回答 1 答案 1 系统 Prompt 回答 2 答案 2 系统 Prompt ... ... ...

    OpenAI 要求至少需要 10 条这样的示例问答才能开始训练。当然,越多越好。但是长度需要在 4096 token 以内。在浏览器里上传文件之后,可以看到数据集预览,也就是第一条数据。然后,点击按钮上传到OpenAI 服务器。

    在上传后会自动填充,或者你可以保存下来,以后粘贴到这里就行,而无需重复上传数据集。会出现在最终的模型名称里。训练轮数越多,效果通常越好,但是开销也更高。点击“开始训练”,就可以将任务加入 OpenAI 的队列。训练完成之后,你会收到邮件通知。

    在这里,你可以管理你的训练队列。比如,获取当前所有成功和正在进行的任务,取消正在训练的任务,将训练完成的模型加入川虎 Chat 的模型列表等。

    最新文章
    这个AI提示词轻松提炼内容要点,让你秒变学霸!
    可能只需要短短几分钟,却可以帮我们省下成倍的时间!成年的世界往往更加注重效率!想象一下,你是个埋头苦读的学生,面对那堆能压垮骆驼的课本,是不是感到无从下手?如果你和AI聊聊,它立马帮你梳理出精华,效率远超你通宵达旦抄笔记。如
    梦幻西游手游神兽多少钱一只 6技能神兽价格
      1.先获得神兽  神兽可以直接摆摊买别人出售的神兽,也可以自己用神兜兜兑换,随机兑换需要99个神兜兜,指定兑换需要一个神兽和25个神兜兜,这里用的是神兜兜方式,神兜兜价格现在基本是3.5万(热门老区价格会贵一点,现在有将近4万的)
    成品人网站w灬:提升成品人网站的用户体验与功能,助力创意无限发展!
      W灬主题以其独特的设计风格和丰富的功能,吸引了大量用户。该主题不仅适用于个人博客,还能为企业网站增添专业感。无论是简约大方还是华丽复杂,都能够满足不同需求的用户。  社交分享按钮让内容传播更加便捷,通过简单的一键操作即
    捷众科技12月13日获融资买入108.82万元,融资余额514.69万元
    12月13日,跌2.61%,成交额3329.31万元。两融数据显示,当日捷众科技获融资买入额108.82万元,融资偿还0.00元,融资净买入108.82万元。截至12月13日,捷众科技融资融券余额合计514.69万元。融资方面,捷众科技当日融资买入108.82万元。当前
    阿里携手UC推出神马搜索 移动搜索绝不会一家独大
      4月28日下午,UC公司与阿里巴巴合作共同推出移动搜索引擎“神马”,域名为sm.cn。UC董事长俞永福表示,UC在内部低调做移动搜索已有四年,去年整合阿里“一搜”团队和业务,以及原百度的技术专家团队后,才推出移动搜索业务。刚刚笔者访
    跨境电商怎么查看其他店铺关键词?怎么查看其他同行?
    在跨境电商的激烈竞争中,了解竞争对手的关键词策略以及发现优秀的同行店铺,是每位电商卖家提升业务、优化产品的重要步骤。今天将详细探讨如何查看其他店铺的关键词以及如何查找其他同行店铺,为跨境电商卖家提供实用的策略。一、跨境电商
    超逼真美女写真生成:用AI打造你的AI女友!
    限时免费,点击体验最近超火的AI生图神器,坐拥3000美女的大男主就是你! https://ai.sohu.com/pc/generate/textToImg?_trans_=030001_yljdaimn 在这个科技飞速发展的时代,人工智能的神奇之处已经渗透到我们生活的方方面面,甚至连美丽的
    词令如何将长网址转成口令打开?
    词令是一款关键词口令直达工具。打开词令,输入口令,直达该口令关联的目标。网址转成口令后,就可以通过词令,输入口令,打开口令关联的目标网址。口令打开网址体验口令是:vip88,请打开词令App或词令官网,输入口令【 vip88 】,搜索直
    逾期通讯录消除攻略:如何有效处理不良记录,恢复信用?
    1. 到相关的逾期联系人管理平台或应用。2. 找到逾期联系人的列表,常常这些列表会在“逾期管理”或“联系人管理”等板块中。3. 选中您想要撤销的逾期联系人。4. 点击“编辑”或“管理”按,进 系人的详细信息页面。5. 查找“撤销逾期”或“
    相关文章
    推荐文章
    发表评论
    0评