diff --git a/CONTRIBUTING.md b/CONTRIBUTING.md index 85431922e12..f0d2b2b18d0 100644 --- a/CONTRIBUTING.md +++ b/CONTRIBUTING.md @@ -25,5 +25,4 @@ - 在 GitHub 提交 [issue][_issues]。 - [Fork](https://github.com/vesoft-inc/nebula-docs-cn/fork) 文档,在本地分支上更改或添加新内容,然后向主分支提交 PR。 - [_issues]: https://github.com/vesoft-inc/nebula-docs-cn/issues diff --git a/docs-2.0/README.md b/docs-2.0/README.md index e9456ede770..5020d792d76 100644 --- a/docs-2.0/README.md +++ b/docs-2.0/README.md @@ -1,4 +1,4 @@ -# 欢迎阅读Nebula Graph {{ nebula.release }} 文档 +# 欢迎阅读 Nebula Graph {{ nebula.release }} 文档 !!! Note "确认正在阅读最新的版本" @@ -8,7 +8,7 @@ 本文档更新时间{{ now().year }}-{{ now().month }}-{{ now().day }}, [GitHub commit](https://github.com/vesoft-inc/nebula-docs/commits/v{{nebula.release}}) {{ git.short_commit }}。 --> -Nebula Graph是一款开源的、分布式的、易扩展的原生图数据库,能够承载数千亿个点和数万亿条边的超大规模数据集,并且提供毫秒级查询。 +Nebula Graph 是一款开源的、分布式的、易扩展的原生图数据库,能够承载数千亿个点和数万亿条边的超大规模数据集,并且提供毫秒级查询。 ## 快速开始 @@ -30,7 +30,6 @@ Graph 完全指南》](https://docs.nebula-graph.com.cn/site/pdf/NebulaGraph-boo ## 图例说明 - -- 下载[pulsar-spark-connector_2.11](https://oss-cdn.nebula-graph.com.cn/jar-packages/pulsar-spark-connector_2.11.zip),解压到本地Maven库的目录`io/streamnative/connectors`中。 + +- 下载 [pulsar-spark-connector_2.11](https://oss-cdn.nebula-graph.com.cn/jar-packages/pulsar-spark-connector_2.11.zip),解压到本地 Maven 库的目录`io/streamnative/connectors`中。 ### 操作步骤 @@ -37,7 +37,7 @@ cd nebula-exchange/nebula-exchange ``` -3. 打包Nebula Exchange。 +3. 打包 Nebula Exchange。 ```bash mvn clean package -Dmaven.test.skip=true -Dgpg.skip -Dmaven.javadoc.skip=true @@ -67,9 +67,9 @@ 在`target`目录下,用户可以找到`exchange-2.x.y.jar`文件。 !!! note - JAR文件版本号会因Nebula Java Client的发布版本而变化。用户可以在[Releases页面](https://github.com/vesoft-inc/nebula-java/releases)查看最新版本。 + JAR 文件版本号会因 Nebula Java Client 的发布版本而变化。用户可以在 [Releases 页面](https://github.com/vesoft-inc/nebula-java/releases) 查看最新版本。 -迁移数据时,用户可以参考配置文件[`target/classes/application.conf`](https://github.com/vesoft-inc/nebula-exchange/blob/master/nebula-exchange/src/main/resources/application.conf)。 +迁移数据时,用户可以参考配置文件 [`target/classes/application.conf`](https://github.com/vesoft-inc/nebula-exchange/blob/master/nebula-exchange/src/main/resources/application.conf)。 ### 下载依赖包失败 @@ -77,7 +77,7 @@ - 检查网络设置,确认网络正常。 -- 修改Maven安装目录下`libexec/conf/settings.xml`文件的`mirror`部分: +- 修改 Maven 安装目录下`libexec/conf/settings.xml`文件的`mirror`部分: ```text diff --git a/docs-2.0/nebula-exchange/parameter-reference/ex-ug-para-import-command.md b/docs-2.0/nebula-exchange/parameter-reference/ex-ug-para-import-command.md index 759cdddde83..479bc06ef1a 100644 --- a/docs-2.0/nebula-exchange/parameter-reference/ex-ug-para-import-command.md +++ b/docs-2.0/nebula-exchange/parameter-reference/ex-ug-para-import-command.md @@ -1,6 +1,6 @@ # 导入命令参数 -完成配置文件修改后,可以运行以下命令将指定来源的数据导入Nebula Graph数据库。 +完成配置文件修改后,可以运行以下命令将指定来源的数据导入 Nebula Graph 数据库。 - 首次导入 @@ -8,20 +8,20 @@ /bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c ``` -- 导入reload文件 +- 导入 reload 文件 - 如果首次导入时有一些数据导入失败,会将导入失败的数据存入reload文件,可以用参数`-r`尝试导入reload文件。 + 如果首次导入时有一些数据导入失败,会将导入失败的数据存入 reload 文件,可以用参数`-r`尝试导入 reload 文件。 ```bash /bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c -r "" ``` !!! note - JAR文件版本号以实际编译得到的JAR文件名称为准。 + JAR 文件版本号以实际编译得到的 JAR 文件名称为准。 !!! note - 如果使用[yarn-cluster模式](https://spark-reference-doc-cn.readthedocs.io/zh_CN/latest/deploy-guide/running-on-yarn.html)提交任务,请参考如下示例: + 如果使用 [yarn-cluster 模式](https://spark-reference-doc-cn.readthedocs.io/zh_CN/latest/deploy-guide/running-on-yarn.html) 提交任务,请参考如下示例: ```bash $SPARK_HOME/bin/spark-submit --master yarn-cluster \ @@ -38,10 +38,10 @@ | 参数 | 是否必需 | 默认值 | 说明 | | :--- | :--- | :--- | :--- | | `--class`  | 是 | 无 | 指定驱动的主类。 | -| `--master`  | 是 | 无 | 指定Spark集群中master进程的URL。详情请参见[master-urls](https://spark.apache.org/docs/latest/submitting-applications.html#master-urls "点击前往 Apache Spark 文档")。 | +| `--master`  | 是 | 无 | 指定 Spark 集群中 master 进程的 URL。详情请参见 [master-urls](https://spark.apache.org/docs/latest/submitting-applications.html#master-urls "点击前往 Apache Spark 文档")。 | | `-c`  / `--config`  | 是 | 无 | 指定配置文件的路径。 | -| `-h`  / `--hive`  | 否 | `false` | 添加这个参数表示支持从Hive中导入数据。 | +| `-h`  / `--hive`  | 否 | `false` | 添加这个参数表示支持从 Hive 中导入数据。 | | `-D`  / `--dry`  | 否 | `false` | 添加这个参数表示检查配置文件的格式是否符合要求,但不会校验`tags`和`edges`的配置项是否正确。正式导入数据时不能添加这个参数。 | -|-r / --reload | 否 | 无 | 指定需要重新加载的reload文件路径。 | +|-r / --reload | 否 | 无 | 指定需要重新加载的 reload 文件路径。 | -更多Spark的参数配置说明请参见[Spark Configuration](https://spark.apache.org/docs/latest/configuration.html#runtime-environment)。 +更多 Spark 的参数配置说明请参见 [Spark Configuration](https://spark.apache.org/docs/latest/configuration.html#runtime-environment)。 diff --git a/docs-2.0/nebula-exchange/parameter-reference/ex-ug-parameter.md b/docs-2.0/nebula-exchange/parameter-reference/ex-ug-parameter.md index ca6b0e8a267..98ffa1c2c64 100644 --- a/docs-2.0/nebula-exchange/parameter-reference/ex-ug-parameter.md +++ b/docs-2.0/nebula-exchange/parameter-reference/ex-ug-parameter.md @@ -1,70 +1,70 @@ # 配置说明 -本文介绍使用Nebula Exchange时如何修改配置文件[`application.conf`](https://github.com/vesoft-inc/nebula-exchange/blob/master/nebula-exchange/src/main/resources/application.conf)。 +本文介绍使用 Nebula Exchange 时如何修改配置文件 [`application.conf`](https://github.com/vesoft-inc/nebula-exchange/blob/master/nebula-exchange/src/main/resources/application.conf)。 -修改配置文件之前,建议根据数据源复制并修改文件名称,便于区分。例如数据源为CSV文件,可以复制为`csv_application.conf`。 +修改配置文件之前,建议根据数据源复制并修改文件名称,便于区分。例如数据源为 CSV 文件,可以复制为`csv_application.conf`。 配置文件的内容主要分为如下几类: -- Spark相关配置 +- Spark 相关配置 -- Hive配置(可选) +- Hive 配置(可选) -- Nebula Graph相关配置 +- Nebula Graph 相关配置 - 点配置 - 边配置 -## Spark相关配置 +## Spark 相关配置 -本文只列出部分Spark参数,更多参数请参见[官方文档](https://spark.apache.org/docs/latest/configuration.html#application-properties)。 +本文只列出部分 Spark 参数,更多参数请参见 [官方文档](https://spark.apache.org/docs/latest/configuration.html#application-properties)。 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`spark.app.name`|string|-|否|Spark驱动程序名称。| -|`spark.driver.cores`|int|`1`|否|驱动程序使用的CPU核数,仅适用于集群模式。| -|`spark.driver.maxResultSize`|string|`1G`|否|单个Spark操作(例如collect)时,所有分区的序列化结果的总大小限制(字节为单位)。最小值为1M,0表示无限制。| -|`spark.executor.memory`|string|`1G`|否|Spark驱动程序使用的内存量,可以指定单位,例如512M、1G。| -|`spark.cores.max`|int|`16`|否|当驱动程序以“粗粒度”共享模式在独立部署集群或Mesos集群上运行时,跨集群(而非从每台计算机)请求应用程序的最大CPU核数。如果未设置,则值为Spark的独立集群管理器上的`spark.deploy.defaultCores`或Mesos上的infinite(所有可用的内核)。| +|`spark.app.name`|string|-|否|Spark 驱动程序名称。| +|`spark.driver.cores`|int|`1`|否|驱动程序使用的 CPU 核数,仅适用于集群模式。| +|`spark.driver.maxResultSize`|string|`1G`|否|单个 Spark 操作(例如 collect)时,所有分区的序列化结果的总大小限制(字节为单位)。最小值为 1M,0 表示无限制。| +|`spark.executor.memory`|string|`1G`|否|Spark 驱动程序使用的内存量,可以指定单位,例如 512M、1G。| +|`spark.cores.max`|int|`16`|否|当驱动程序以“粗粒度”共享模式在独立部署集群或 Mesos 集群上运行时,跨集群(而非从每台计算机)请求应用程序的最大 CPU 核数。如果未设置,则值为 Spark 的独立集群管理器上的`spark.deploy.defaultCores`或 Mesos 上的 infinite(所有可用的内核)。| -## Hive配置(可选) +## Hive 配置(可选) -如果Spark和Hive部署在不同集群,才需要配置连接Hive的参数,否则请忽略这些配置。 +如果 Spark 和 Hive 部署在不同集群,才需要配置连接 Hive 的参数,否则请忽略这些配置。 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`hive.warehouse`|string|-|是|HDFS中的warehouse路径。用双引号括起路径,以`hdfs://`开头。| -|`hive.connectionURL`|string|-|是|JDBC连接的URL。例如`"jdbc:mysql://127.0.0.1:3306/hive_spark?characterEncoding=UTF-8"`。| +|`hive.warehouse`|string|-|是|HDFS 中的 warehouse 路径。用双引号括起路径,以`hdfs://`开头。| +|`hive.connectionURL`|string|-|是|JDBC 连接的 URL。例如`"jdbc:mysql://127.0.0.1:3306/hive_spark?characterEncoding=UTF-8"`。| |`hive.connectionDriverName`|string|`"com.mysql.jdbc.Driver"`|是|驱动名称。| |`hive.connectionUserName`|list\[string\]|-|是|连接的用户名。| |`hive.connectionPassword`|list\[string\]|-|是|用户名对应的密码。| -## Nebula Graph相关配置 +## Nebula Graph 相关配置 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`nebula.address.graph`|list\[string\]|`["127.0.0.1:9669"]`|是|所有Graph服务的地址,包括IP和端口,多个地址用英文逗号(,)分隔。格式为`["ip1:port1","ip2:port2","ip3:port3"]`。| -|`nebula.address.meta`|list\[string\]|`["127.0.0.1:9559"]`|是|所有Meta服务的地址,包括IP和端口,多个地址用英文逗号(,)分隔。格式为`["ip1:port1","ip2:port2","ip3:port3"]`。| -|`nebula.user`|string|-|是|拥有Nebula Graph写权限的用户名。| +|`nebula.address.graph`|list\[string\]|`["127.0.0.1:9669"]`|是|所有 Graph 服务的地址,包括 IP 和端口,多个地址用英文逗号(,)分隔。格式为`["ip1:port1","ip2:port2","ip3:port3"]`。| +|`nebula.address.meta`|list\[string\]|`["127.0.0.1:9559"]`|是|所有 Meta 服务的地址,包括 IP 和端口,多个地址用英文逗号(,)分隔。格式为`["ip1:port1","ip2:port2","ip3:port3"]`。| +|`nebula.user`|string|-|是|拥有 Nebula Graph 写权限的用户名。| |`nebula.pswd`|string|-|是|用户名对应的密码。| |`nebula.space`|string|-|是|需要导入数据的的图空间名称。| -|`nebula.ssl.enable.graph`|bool|`false`|是|开启Exchange与Graph服务之间的[SSL加密](https://en.wikipedia.org/wiki/Transport_Layer_Security)传输。当值为`true`时开启,下方的SSL相关参数生效。如果Exchange运行在多机集群上,在设置以下SSL相关路径时,需要在每台机器的相同路径都存储相应的文件。| -|`nebula.ssl.sign`|string|`ca`|是|签名方式,可选值:`ca`(CA签名)或`self`(自签名)。| -|`nebula.ssl.ca.param.caCrtFilePath`|string|`"/path/caCrtFilePath"`|是|`nebula.ssl.sign`的值为`ca`时生效,用于指定CA证书的存储路径。| -|`nebula.ssl.ca.param.crtFilePath`|string|`"/path/crtFilePath"`|是|`nebula.ssl.sign`的值为`ca`时生效,用于指定CRT证书的存储路径。| +|`nebula.ssl.enable.graph`|bool|`false`|是|开启 Exchange 与 Graph 服务之间的 [SSL 加密](https://en.wikipedia.org/wiki/Transport_Layer_Security) 传输。当值为`true`时开启,下方的 SSL 相关参数生效。如果 Exchange 运行在多机集群上,在设置以下 SSL 相关路径时,需要在每台机器的相同路径都存储相应的文件。| +|`nebula.ssl.sign`|string|`ca`|是|签名方式,可选值:`ca`(CA 签名)或`self`(自签名)。| +|`nebula.ssl.ca.param.caCrtFilePath`|string|`"/path/caCrtFilePath"`|是|`nebula.ssl.sign`的值为`ca`时生效,用于指定 CA 证书的存储路径。| +|`nebula.ssl.ca.param.crtFilePath`|string|`"/path/crtFilePath"`|是|`nebula.ssl.sign`的值为`ca`时生效,用于指定 CRT 证书的存储路径。| |`nebula.ssl.ca.param.keyFilePath`|string|`"/path/keyFilePath"`|是|`nebula.ssl.sign`的值为`ca`时生效,用于指定私钥文件的存储路径。| -|`nebula.ssl.self.param.crtFilePath`|string|`"/path/crtFilePath"`|是|`nebula.ssl.sign`的值为`self`时生效,用于指定CRT证书的存储路径。| +|`nebula.ssl.self.param.crtFilePath`|string|`"/path/crtFilePath"`|是|`nebula.ssl.sign`的值为`self`时生效,用于指定 CRT 证书的存储路径。| |`nebula.ssl.self.param.keyFilePath`|string|`"/path/keyFilePath"`|是|`nebula.ssl.sign`的值为`self`时生效,用于指定私钥文件的存储路径。| |`nebula.ssl.self.param.password`|string|`"nebula"`|是|`nebula.ssl.sign`的值为`self`时生效,用于指定密码文件的存储路径。| -|`nebula.path.local`|string|`"/tmp"`|否|导入SST文件时需要设置本地SST文件路径。| -|`nebula.path.remote`|string|`"/sst"`|否|导入SST文件时需要设置远端SST文件路径。| -|`nebula.path.hdfs.namenode`|string|`"hdfs://name_node:9000"`|否|导入SST文件时需要设置HDFS的namenode。| -|`nebula.connection.timeout`|int|`3000`|否|Thrift连接的超时时间,单位为 ms。| -|`nebula.connection.retry`|int|`3`|否|Thrift连接重试次数。| -|`nebula.execution.retry`|int|`3`|否|nGQL语句执行重试次数。| -|`nebula.error.max`|int|`32`|否|导入过程中的最大失败次数。当失败次数达到最大值时,提交的Spark作业将自动停止。| -|`nebula.error.output`|string|`/tmp/errors`|否|输出错误日志的路径。错误日志保存执行失败的nGQL语句。| +|`nebula.path.local`|string|`"/tmp"`|否|导入 SST 文件时需要设置本地 SST 文件路径。| +|`nebula.path.remote`|string|`"/sst"`|否|导入 SST 文件时需要设置远端 SST 文件路径。| +|`nebula.path.hdfs.namenode`|string|`"hdfs://name_node:9000"`|否|导入 SST 文件时需要设置 HDFS 的 namenode。| +|`nebula.connection.timeout`|int|`3000`|否|Thrift 连接的超时时间,单位为 ms。| +|`nebula.connection.retry`|int|`3`|否|Thrift 连接重试次数。| +|`nebula.execution.retry`|int|`3`|否|nGQL 语句执行重试次数。| +|`nebula.error.max`|int|`32`|否|导入过程中的最大失败次数。当失败次数达到最大值时,提交的 Spark 作业将自动停止。| +|`nebula.error.output`|string|`/tmp/errors`|否|输出错误日志的路径。错误日志保存执行失败的 nGQL 语句。| |`nebula.rate.limit`|int|`1024`|否|导入数据时令牌桶的令牌数量限制。| |`nebula.rate.timeout`|int|`1000`|否|令牌桶中拿取令牌的超时时间,单位:毫秒。| @@ -76,150 +76,150 @@ |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`tags.name`|string|-|是|Nebula Graph中定义的Tag名称。| +|`tags.name`|string|-|是|Nebula Graph 中定义的 Tag 名称。| |`tags.type.source`|string|-|是|指定数据源。例如`csv`。| |`tags.type.sink`|string|`client`|是|指定导入方式,可选值为`client`和`SST`。| -|`tags.fields`|list\[string\]|-|是|属性对应的列的表头或列名。如果有表头或列名,请直接使用该名称。如果CSV文件没有表头,用`[_c0, _c1, _c2]`的形式表示第一列、第二列、第三列,以此类推。| -|`tags.nebula.fields`|list\[string\]|-|是|Nebula Graph中定义的属性名称,顺序必须和`tags.fields`一一对应。例如`[_c1, _c2]`对应`[name, age]`,表示第二列为属性name的值,第三列为属性age的值。| -|`tags.vertex.field`|string|-|是|点ID的列。例如CSV文件没有表头时,可以用`_c0`表示第一列的值作为点ID。| -|`tags.batch`|int|`256`|是|单批次写入Nebula Graph的最大点数量。| -|`tags.partition`|int|`32`|是|Spark分片数量。| +|`tags.fields`|list\[string\]|-|是|属性对应的列的表头或列名。如果有表头或列名,请直接使用该名称。如果 CSV 文件没有表头,用`[_c0, _c1, _c2]`的形式表示第一列、第二列、第三列,以此类推。| +|`tags.nebula.fields`|list\[string\]|-|是|Nebula Graph 中定义的属性名称,顺序必须和`tags.fields`一一对应。例如`[_c1, _c2]`对应`[name, age]`,表示第二列为属性 name 的值,第三列为属性 age 的值。| +|`tags.vertex.field`|string|-|是|点 ID 的列。例如 CSV 文件没有表头时,可以用`_c0`表示第一列的值作为点 ID。| +|`tags.batch`|int|`256`|是|单批次写入 Nebula Graph 的最大点数量。| +|`tags.partition`|int|`32`|是|Spark 分片数量。| -### Parquet/JSON/ORC源特有参数 +### Parquet/JSON/ORC 源特有参数 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`tags.path`|string|-|是|HDFS中点数据文件的路径。用双引号括起路径,以`hdfs://`开头。| +|`tags.path`|string|-|是|HDFS 中点数据文件的路径。用双引号括起路径,以`hdfs://`开头。| -### CSV源特有参数 +### CSV 源特有参数 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`tags.path`|string|-|是|HDFS中点数据文件的路径。用双引号括起路径,以`hdfs://`开头。| +|`tags.path`|string|-|是|HDFS 中点数据文件的路径。用双引号括起路径,以`hdfs://`开头。| |`tags.separator`|string|`,`|是|分隔符。默认值为英文逗号(,)。| |`tags.header`|bool|`true`|是|文件是否有表头。| -### Hive源特有参数 +### Hive 源特有参数 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| |`tags.exec`|string|-|是|查询数据源的语句。例如`select name,age from mooc.users`。| -### MaxCompute源特有参数 +### MaxCompute 源特有参数 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`tags.table`|string|-|是|MaxCompute的表名。| -|`tags.project`|string|-|是|MaxCompute的项目名。| -|`tags.odpsUrl`|string|-|是|MaxCompute服务的odpsUrl。地址可根据[阿里云文档](https://help.aliyun.com/document_detail/34951.html)查看。| -|`tags.tunnelUrl`|string|-|是|MaxCompute服务的tunnelUrl。地址可根据[阿里云文档](https://help.aliyun.com/document_detail/34951.html)查看。| -|`tags.accessKeyId`|string|-|是|MaxCompute服务的accessKeyId。| -|`tags.accessKeySecret`|string|-|是|MaxCompute服务的accessKeySecret。| -|`tags.partitionSpec`|string|-|否|MaxCompute表的分区描述。| -|`tags.sentence`|string|-|否|查询数据源的语句。SQL语句中的表名和上方table的值相同。| +|`tags.table`|string|-|是|MaxCompute 的表名。| +|`tags.project`|string|-|是|MaxCompute 的项目名。| +|`tags.odpsUrl`|string|-|是|MaxCompute 服务的 odpsUrl。地址可根据 [阿里云文档](https://help.aliyun.com/document_detail/34951.html) 查看。| +|`tags.tunnelUrl`|string|-|是|MaxCompute 服务的 tunnelUrl。地址可根据 [阿里云文档](https://help.aliyun.com/document_detail/34951.html) 查看。| +|`tags.accessKeyId`|string|-|是|MaxCompute 服务的 accessKeyId。| +|`tags.accessKeySecret`|string|-|是|MaxCompute 服务的 accessKeySecret。| +|`tags.partitionSpec`|string|-|否|MaxCompute 表的分区描述。| +|`tags.sentence`|string|-|否|查询数据源的语句。SQL 语句中的表名和上方 table 的值相同。| -### Neo4j源特有参数 +### Neo4j 源特有参数 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| |`tags.exec`|string|-|是|查询数据源的语句。例如`match (n:label) return n.neo4j-field-0`。| -|`tags.server`|string|`"bolt://127.0.0.1:7687"`|是|Neo4j服务器地址。| -|`tags.user`|string|-|是|拥有读取权限的Neo4j用户名。| +|`tags.server`|string|`"bolt://127.0.0.1:7687"`|是|Neo4j 服务器地址。| +|`tags.user`|string|-|是|拥有读取权限的 Neo4j 用户名。| |`tags.password`|string|-|是|用户名对应密码。| -|`tags.database`|string|-|是|Neo4j中保存源数据的数据库名。| +|`tags.database`|string|-|是|Neo4j 中保存源数据的数据库名。| |`tags.check_point_path`|string|`/tmp/test`|否|设置保存导入进度信息的目录,用于断点续传。如果未设置,表示不启用断点续传。| -### MySQL源特有参数 +### MySQL 源特有参数 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`tags.host`|string|-|是|MySQL服务器地址。| -|`tags.port`|string|-|是|MySQL服务器端口。| +|`tags.host`|string|-|是|MySQL 服务器地址。| +|`tags.port`|string|-|是|MySQL 服务器端口。| |`tags.database`|string|-|是|数据库名称。| |`tags.table`|string|-|是|需要作为数据源的表名称。| -|`tags.user`|string|-|是|拥有读取权限的MySQL用户名。| +|`tags.user`|string|-|是|拥有读取权限的 MySQL 用户名。| |`tags.password`|string|-|是|用户名对应密码。| |`tags.sentence`|string|-|是|查询数据源的语句。例如`"select teamid, name from basketball.team order by teamid;"`。| -### ClickHouse源特有参数 +### ClickHouse 源特有参数 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`tags.url`|string|-|是|ClickHouse的JDBC URL。| -|`tags.user`|string|-|是|有读取权限的ClickHouse用户名。| +|`tags.url`|string|-|是|ClickHouse 的 JDBC URL。| +|`tags.user`|string|-|是|有读取权限的 ClickHouse 用户名。| |`tags.password`|string|-|是|用户名对应密码。| -|`tags.numPartition`|string|-|是|ClickHouse分区数。| +|`tags.numPartition`|string|-|是|ClickHouse 分区数。| |`tags.sentence`|string|-|是|查询数据源的语句。| -### Hbase源特有参数 +### Hbase 源特有参数 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`tags.host`|string|`127.0.0.1`|是|Hbase服务器地址。| -|`tags.port`|string|`2181`|是|Hbase服务器端口。| +|`tags.host`|string|`127.0.0.1`|是|Hbase 服务器地址。| +|`tags.port`|string|`2181`|是|Hbase 服务器端口。| |`tags.table`|string|-|是|需要作为数据源的表名称。| |`tags.columnFamily`|string|-|是|表所属的列族(column family)。| -### Pulsar源特有参数 +### Pulsar 源特有参数 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`tags.service`|string|`"pulsar://localhost:6650"`|是|Pulsar服务器地址。| -|`tags.admin`|string|`"http://localhost:8081"`|是|连接pulsar的admin.url。| -|`tags.options.`|string|-|是|Pulsar的选项,可以从`topic`、`topics`和`topicsPattern`选择一个进行配置。| +|`tags.service`|string|`"pulsar://localhost:6650"`|是|Pulsar 服务器地址。| +|`tags.admin`|string|`"http://localhost:8081"`|是|连接 pulsar 的 admin.url。| +|`tags.options.`|string|-|是|Pulsar 的选项,可以从`topic`、`topics`和`topicsPattern`选择一个进行配置。| |`tags.interval.seconds`|int|`10`|是|读取消息的间隔。单位:秒。| -### Kafka源特有参数 +### Kafka 源特有参数 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`tags.service`|string|-|是|Kafka服务器地址。| +|`tags.service`|string|-|是|Kafka 服务器地址。| |`tags.topic`|string|-|是|消息类别。| |`tags.interval.seconds`|int|`10`|是|读取消息的间隔。单位:秒。| -### SST源特有参数 +### SST 源特有参数 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`tags.path`|string|-|是|指定需要生成SST文件的源文件的路径。| +|`tags.path`|string|-|是|指定需要生成 SST 文件的源文件的路径。| -### Nebula Graph源特有参数 +### Nebula Graph 源特有参数 !!! enterpriseonly - Nebula Graph源特有参数用于导出Nebula Graph数据,仅企业版Exchange支持。 + Nebula Graph 源特有参数用于导出 Nebula Graph 数据,仅企业版 Exchange 支持。 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`tags.path`|string|`"hdfs://namenode:9000/path/vertex"`|是|指定CSV文件的存储路径。设置的路径必须不存在,Exchange会自动创建该路径。存储到HDFS服务器时路径格式同默认值,例如`"hdfs://192.168.8.177:9000/vertex/player"`。存储到本地时路径格式为`"file:///path/vertex"`,例如`"file:///home/nebula/vertex/player"`。有多个Tag时必须为每个Tag设置不同的目录。| -|`tags.noField`|bool|`false`|是|当值为`true`时,仅导出VID而不导出属性数据;当值为`false`时导出VID和属性数据。| +|`tags.path`|string|`"hdfs://namenode:9000/path/vertex"`|是|指定 CSV 文件的存储路径。设置的路径必须不存在,Exchange 会自动创建该路径。存储到 HDFS 服务器时路径格式同默认值,例如`"hdfs://192.168.8.177:9000/vertex/player"`。存储到本地时路径格式为`"file:///path/vertex"`,例如`"file:///home/nebula/vertex/player"`。有多个 Tag 时必须为每个 Tag 设置不同的目录。| +|`tags.noField`|bool|`false`|是|当值为`true`时,仅导出 VID 而不导出属性数据;当值为`false`时导出 VID 和属性数据。| |`tags.return.fields`|list|`[]`|是|指定要导出的属性。例如,要导出`name`和`age`属性,需将参数值设置为`["name","age"]`。该参数仅在`tags.noField`的值为`false`时生效。| ## 边配置 对于不同的数据源,边的配置也有所不同,有很多通用参数,也有部分特有参数,配置时需要配置通用参数和不同数据源的特有参数。 -边配置的不同数据源特有参数请参见上方点配置内的特有参数介绍,注意区分tags和edges即可。 +边配置的不同数据源特有参数请参见上方点配置内的特有参数介绍,注意区分 tags 和 edges 即可。 ### 通用参数 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`edges.name`| string|-|是|Nebula Graph中定义的Edge type名称。| +|`edges.name`| string|-|是|Nebula Graph 中定义的 Edge type 名称。| |`edges.type.source`|string|-|是|指定数据源。例如`csv`。| |`edges.type.sink`|string|`client`|是|指定导入方式,可选值为`client`和`SST`。| -|`edges.fields`|list\[string\]|-|是|属性对应的列的表头或列名。如果有表头或列名,请直接使用该名称。如果CSV文件没有表头,用`[_c0, _c1, _c2]`的形式表示第一列、第二列、第三列,以此类推。| -|`edges.nebula.fields`|list\[string\]|-|是|Nebula Graph中定义的属性名称,顺序必须和`edges.fields`一一对应。例如`[_c2, _c3]`对应`[start_year, end_year]`,表示第三列为开始年份的值,第四列为结束年份的值。| +|`edges.fields`|list\[string\]|-|是|属性对应的列的表头或列名。如果有表头或列名,请直接使用该名称。如果 CSV 文件没有表头,用`[_c0, _c1, _c2]`的形式表示第一列、第二列、第三列,以此类推。| +|`edges.nebula.fields`|list\[string\]|-|是|Nebula Graph 中定义的属性名称,顺序必须和`edges.fields`一一对应。例如`[_c2, _c3]`对应`[start_year, end_year]`,表示第三列为开始年份的值,第四列为结束年份的值。| |`edges.source.field`|string|-|是|边的起始点的列。例如`_c0`表示第一列的值作为边的起始点。| |`edges.target.field`|string|-|是|边的目的点的列。例如`_c1`表示第二列的值作为边的目的点。| -|`edges.ranking`|int|-|否|rank值的列。没有指定时,默认所有rank值为`0`。| -|`edges.batch`|int|`256`|是|单批次写入Nebula Graph的最大边数量。| -|`edges.partition`|int|`32`|是|Spark分片数量。| +|`edges.ranking`|int|-|否|rank 值的列。没有指定时,默认所有 rank 值为`0`。| +|`edges.batch`|int|`256`|是|单批次写入 Nebula Graph 的最大边数量。| +|`edges.partition`|int|`32`|是|Spark 分片数量。| -### Nebula Graph源特有参数 +### Nebula Graph 源特有参数 |参数|数据类型|默认值|是否必须|说明| |:---|:---|:---|:---|:---| -|`edges.path`|string|`"hdfs://namenode:9000/path/edge"`|是|指定CSV文件的存储路径。设置的路径必须不存在,Exchange会自动创建该路径。存储到HDFS服务器时路径格式同默认值,例如`"hdfs://192.168.8.177:9000/edge/follow"`。存储到本地时路径格式为`"file:///path/edge"`,例如`"file:///home/nebula/edge/follow"`。有多个Edge时必须为每个Edge设置不同的目录。| -|`edges.noField`|bool|`false`|是|当值为`true`时,仅导出起始点VID、目的点VID和Rank,而不导出属性数据;当值为`false`时导出起始点VID、目的点VID、Rank和属性数据。| +|`edges.path`|string|`"hdfs://namenode:9000/path/edge"`|是|指定 CSV 文件的存储路径。设置的路径必须不存在,Exchange 会自动创建该路径。存储到 HDFS 服务器时路径格式同默认值,例如`"hdfs://192.168.8.177:9000/edge/follow"`。存储到本地时路径格式为`"file:///path/edge"`,例如`"file:///home/nebula/edge/follow"`。有多个 Edge 时必须为每个 Edge 设置不同的目录。| +|`edges.noField`|bool|`false`|是|当值为`true`时,仅导出起始点 VID、目的点 VID 和 Rank,而不导出属性数据;当值为`false`时导出起始点 VID、目的点 VID、Rank 和属性数据。| |`edges.return.fields`|list|`[]`|是|指定要导出的属性。例如,要导出`start_year`和`end_year`属性,需将参数值设置为`["start_year","end_year"]`。该参数仅在`edges.noField`的值为`false`时生效。| diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-export-from-nebula.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-export-from-nebula.md index 43f64b4c581..ec972601f1b 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-export-from-nebula.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-export-from-nebula.md @@ -1,18 +1,18 @@ -# 导出Nebula Graph数据 +# 导出 Nebula Graph 数据 -本文以一个示例说明如何使用Exchange将Nebula Graph中的数据导出到CSV文件中。 +本文以一个示例说明如何使用 Exchange 将 Nebula Graph 中的数据导出到 CSV 文件中。 !!! enterpriseonly - 仅企业版Exchange支持导出Nebula Graph数据到CSV文件。 + 仅企业版 Exchange 支持导出 Nebula Graph 数据到 CSV 文件。 !!! note - 导出Nebula Graph数据时不支持SSL加密传输。 + 导出 Nebula Graph 数据时不支持 SSL 加密传输。 ## 环境准备 -本示例在Linux系统的虚拟机环境下完成,导出数据前准备的软硬件信息如下。 +本示例在 Linux 系统的虚拟机环境下完成,导出数据前准备的软硬件信息如下。 ### 硬件 @@ -38,7 +38,7 @@ CentOS 7.9.2009 ### 数据集 -在本示例中,作为数据源的Nebula Graph存储着[basketballplayer数据集](https://docs.nebula-graph.io/2.0/basketballplayer-2.X.ngql),其中的Schema要素如下表所示。 +在本示例中,作为数据源的 Nebula Graph 存储着 [basketballplayer 数据集](https://docs.nebula-graph.io/2.0/basketballplayer-2.X.ngql),其中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -49,11 +49,11 @@ CentOS 7.9.2009 ## 操作步骤 -1. 从[Nebula Graph企业版套餐](https://nebula-graph.com.cn/pricing/)中获取企业版Exchange的JAR文件。 +1. 从 [Nebula Graph 企业版套餐](https://nebula-graph.com.cn/pricing/) 中获取企业版 Exchange 的 JAR 文件。 2. 修改配置文件。 - 企业版Exchange提供了导出Nebula Graph数据专用的配置文件模板`export_application.conf`,其中各配置项的说明参见[Exchange配置](../ parameter-reference/ex-ug-parameter.md)。本示例使用的配置文件核心内容如下: + 企业版 Exchange 提供了导出 Nebula Graph 数据专用的配置文件模板`export_application.conf`,其中各配置项的说明参见 [Exchange 配置](../ parameter-reference/ex-ug-parameter.md)。本示例使用的配置文件核心内容如下: ```conf ... @@ -112,7 +112,7 @@ CentOS 7.9.2009 } ``` -3. 使用如下命令导出Nebula Graph中的数据。 +3. 使用如下命令导出 Nebula Graph 中的数据。 ```bash /bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange nebula-exchange-x.y.z.jar_path> -c @@ -127,7 +127,7 @@ CentOS 7.9.2009 4. 检查导出的数据。 - 1. 查看目标路径下是否成功生成了CSV文件。 + 1. 查看目标路径下是否成功生成了 CSV 文件。 ```bash $ hadoop fs -ls /vertex/player @@ -145,4 +145,4 @@ CentOS 7.9.2009 -rw-r--r-- 3 nebula supergroup 119 2021-11-05 07:36 /vertex/player/ part-00009-17293020-ba2e-4243-b834-34495c0536b3-c000.csv ``` - 2. 检查CSV文件内容,确定数据导出成功。 + 2. 检查 CSV 文件内容,确定数据导出成功。 diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-clickhouse.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-clickhouse.md index 32313e76965..3768537b00d 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-clickhouse.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-clickhouse.md @@ -1,14 +1,14 @@ -# 导入ClickHouse数据 +# 导入 ClickHouse 数据 -本文以一个示例说明如何使用Exchange将存储在ClickHouse上的数据导入Nebula Graph。 +本文以一个示例说明如何使用 Exchange 将存储在 ClickHouse 上的数据导入 Nebula Graph。 ## 数据集 -本文以[basketballplayer数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip)为例。 +本文以 [basketballplayer 数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip) 为例。 ## 环境配置 -本文示例在MacOS下完成,以下是相关的环境配置信息: +本文示例在 MacOS 下完成,以下是相关的环境配置信息: - 硬件规格: - CPU:1.7 GHz Quad-Core Intel Core i7 @@ -18,35 +18,35 @@ - Hadoop:2.9.2,伪分布式部署 -- ClickHouse:docker部署yandex/clickhouse-server tag: latest(2021.07.01) +- ClickHouse:docker 部署 yandex/clickhouse-server tag: latest(2021.07.01) -- Nebula Graph:{{nebula.release}}。使用[Docker Compose部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- Nebula Graph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)并获取如下信息: +- 已经 [安装部署 Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - - Graph服务和Meta服务的的IP地址和端口。 + - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有Nebula Graph写权限的用户名和密码。 + - 拥有 Nebula Graph 写权限的用户名和密码。 -- 已经编译Exchange。详情请参见[编译Exchange](../ex-ug-compile.md)。本示例中使用Exchange {{exchange.release}}。 +- 已经编译 Exchange。详情请参见 [编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 -- 已经安装Spark。 +- 已经安装 Spark。 -- 了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。 +- 了解 Nebula Graph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 -- 已经安装并开启Hadoop服务。 +- 已经安装并开启 Hadoop 服务。 ## 操作步骤 -### 步骤 1:在Nebula Graph中创建Schema +### 步骤 1:在 Nebula Graph 中创建 Schema -分析数据,按以下步骤在Nebula Graph中创建Schema: +分析数据,按以下步骤在 Nebula Graph 中创建 Schema: -1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。 +1. 确认 Schema 要素。Nebula Graph 中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -55,7 +55,7 @@ | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 在Nebula Graph中创建一个图空间**basketballplayer**,并创建一个Schema,如下所示。 +2. 在 Nebula Graph 中创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -64,31 +64,31 @@ replica_factor = 1, \ vid_type = FIXED_STRING(30)); - ## 选择图空间basketballplayer + ## 选择图空间 basketballplayer nebula> USE basketballplayer; - ## 创建Tag player + ## 创建 Tag player nebula> CREATE TAG player(name string, age int); - ## 创建Tag team + ## 创建 Tag team nebula> CREATE TAG team(name string); - ## 创建Edge type follow + ## 创建 Edge type follow nebula> CREATE EDGE follow(degree int); - ## 创建Edge type serve + ## 创建 Edge type serve nebula> CREATE EDGE serve(start_year int, end_year int); ``` -更多信息,请参见[快速开始](../../2.quick-start/1.quick-start-workflow.md)。 +更多信息,请参见 [快速开始](../../2.quick-start/1.quick-start-workflow.md)。 ### 步骤 2:修改配置文件 -编译Exchange后,复制`target/classes/application.conf`文件设置ClickHouse数据源相关的配置。在本示例中,复制的文件名为`clickhouse_application.conf`。各个配置项的详细说明请参见[配置说明](../parameter-reference/ex-ug-parameter.md)。 +编译 Exchange 后,复制`target/classes/application.conf`文件设置 ClickHouse 数据源相关的配置。在本示例中,复制的文件名为`clickhouse_application.conf`。各个配置项的详细说明请参见 [配置说明](../parameter-reference/ex-ug-parameter.md)。 ```conf { - # Spark相关配置 + # Spark 相关配置 spark: { app: { name: Nebula Exchange {{exchange.release}} @@ -102,19 +102,19 @@ } } -# Nebula Graph相关配置 +# Nebula Graph 相关配置 nebula: { address:{ - # 以下为Nebula Graph的Graph服务和Meta服务所在机器的IP地址及端口。 + # 以下为 Nebula Graph 的 Graph 服务和 Meta 服务所在机器的 IP 地址及端口。 # 如果有多个地址,格式为 "ip1:port","ip2:port","ip3:port"。 # 不同地址之间以英文逗号 (,) 隔开。 graph:["127.0.0.1:9669"] meta:["127.0.0.1:9559"] } - # 填写的账号必须拥有Nebula Graph相应图空间的写数据权限。 + # 填写的账号必须拥有 Nebula Graph 相应图空间的写数据权限。 user: root pswd: nebula - # 填写Nebula Graph中需要写入数据的图空间名称。 + # 填写 Nebula Graph 中需要写入数据的图空间名称。 space: basketballplayer connection { timeout: 3000 @@ -134,34 +134,34 @@ } # 处理点 tags: [ - # 设置Tag player相关信息。 + # 设置 Tag player 相关信息。 { name: player type: { - # 指定数据源文件格式,设置为ClickHouse。 + # 指定数据源文件格式,设置为 ClickHouse。 source: clickhouse - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # ClickHouse的JDBC URL + # ClickHouse 的 JDBC URL url:"jdbc:clickhouse://192.168.*.*:8123/basketballplayer" user:"user" password:"123456" - # ClickHouse分区数 + # ClickHouse 分区数 numPartition:"5" sentence:"select * from player" - # 在fields里指定player表中的列名称,其对应的value会作为Nebula Graph中指定属性。 - # fields和nebula.fields里的配置必须一一对应。 + # 在 fields 里指定 player 表中的列名称,其对应的 value 会作为 Nebula Graph 中指定属性。 + # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [name,age] nebula.fields: [name,age] - # 指定表中某一列数据为Nebula Graph中点VID的来源。 + # 指定表中某一列数据为 Nebula Graph 中点 VID 的来源。 vertex: { field:playerid # policy:hash @@ -174,7 +174,7 @@ partition: 32 } - # 设置Tag team相关信息。 + # 设置 Tag team 相关信息。 { name: team type: { @@ -198,43 +198,43 @@ # 处理边数据 edges: [ - # 设置Edge type follow相关信息 + # 设置 Edge type follow 相关信息 { - # Nebula Graph中对应的Edge type名称。 + # Nebula Graph 中对应的 Edge type 名称。 name: follow type: { - # 指定数据源文件格式,设置为ClickHouse。 + # 指定数据源文件格式,设置为 ClickHouse。 source: clickhouse - # 指定边数据导入Nebula Graph的方式, - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定边数据导入 Nebula Graph 的方式, + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # ClickHouse的JDBC URL + # ClickHouse 的 JDBC URL url:"jdbc:clickhouse://192.168.*.*:8123/basketballplayer" user:"user" password:"123456" - # ClickHouse分区数 + # ClickHouse 分区数 numPartition:"5" sentence:"select * from follow" - # 在fields里指定follow表中的列名称,其对应的value会作为Nebula Graph中指定属性。 - # fields和nebula.fields里的配置必须一一对应。 + # 在 fields 里指定 follow 表中的列名称,其对应的 value 会作为 Nebula Graph 中指定属性。 + # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [degree] nebula.fields: [degree] - # 在source里,将follow表中某一列作为边的起始点数据源。 + # 在 source 里,将 follow 表中某一列作为边的起始点数据源。 source: { field:src_player } - # 在target里,将follow表中某一列作为边的目的点数据源。 + # 在 target 里,将 follow 表中某一列作为边的目的点数据源。 target: { field:dst_player } @@ -246,7 +246,7 @@ partition: 32 } - # 设置Edge type serve相关信息 + # 设置 Edge type serve 相关信息 { name: serve type: { @@ -273,9 +273,9 @@ } ``` -### 步骤 3:向Nebula Graph导入数据 +### 步骤 3:向 Nebula Graph 导入数据 -运行如下命令将ClickHouse数据导入到Nebula Graph中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 ClickHouse 数据导入到 Nebula Graph 中。关于参数的说明,请参见 [导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -283,7 +283,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchan !!! note - JAR包有两种获取方式:[自行编译](../ex-ug-compile.md)或者从maven仓库下载。 + JAR 包有两种获取方式:[自行编译](../ex-ug-compile.md) 或者从 maven 仓库下载。 示例: @@ -295,14 +295,14 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 4:(可选)验证数据 -用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在 Nebula Graph 客户端(例如 Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql GO FROM "player100" OVER follow; ``` -用户也可以使用命令[`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md)查看统计数据。 +用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 5:(如有)在Nebula Graph中重建索引 +### 步骤 5:(如有)在 Nebula Graph 中重建索引 -导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在 Nebula Graph 中重新创建并重建索引。详情请参见 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-csv.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-csv.md index 88ffd0f128b..1b88b983ffa 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-csv.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-csv.md @@ -1,16 +1,16 @@ -# 导入CSV文件数据 +# 导入 CSV 文件数据 -本文以一个示例说明如何使用Exchange将存储在HDFS或本地的CSV文件数据导入Nebula Graph。 +本文以一个示例说明如何使用 Exchange 将存储在 HDFS 或本地的 CSV 文件数据导入 Nebula Graph。 -如果要向Nebula Graph导入本地CSV文件,请参见[Nebula Importer](https://github.com/vesoft-inc/nebula-importer "Click to go to GitHub")。 +如果要向 Nebula Graph 导入本地 CSV 文件,请参见 [Nebula Importer](https://github.com/vesoft-inc/nebula-importer "Click to go to GitHub")。 ## 数据集 -本文以[basketballplayer数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip)为例。 +本文以 [basketballplayer 数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip) 为例。 ## 环境配置 -本文示例在MacOS下完成,以下是相关的环境配置信息: +本文示例在 MacOS 下完成,以下是相关的环境配置信息: - 硬件规格: - CPU:1.7 GHz Quad-Core Intel Core i7 @@ -20,35 +20,35 @@ - Hadoop:2.9.2 伪分布式部署 -- Nebula Graph:{{nebula.release}}。使用[Docker Compose部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- Nebula Graph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)并获取如下信息: +- 已经 [安装部署 Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - - Graph服务和Meta服务的的IP地址和端口。 + - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有Nebula Graph写权限的用户名和密码。 + - 拥有 Nebula Graph 写权限的用户名和密码。 -- 已经编译Exchange。详情请参见[编译Exchange](../ex-ug-compile.md)。本示例中使用Exchange {{exchange.release}}。 +- 已经编译 Exchange。详情请参见 [编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 -- 已经安装Spark。 +- 已经安装 Spark。 -- 了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。 +- 了解 Nebula Graph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 -- 如果文件存储在HDFS上,需要确认Hadoop服务运行正常。 +- 如果文件存储在 HDFS 上,需要确认 Hadoop 服务运行正常。 -- 如果文件存储在本地且Nebula Graph是集群架构,需要在集群每台机器本地相同目录下放置文件。 +- 如果文件存储在本地且 Nebula Graph 是集群架构,需要在集群每台机器本地相同目录下放置文件。 ## 操作步骤 -### 步骤 1:在Nebula Graph中创建Schema +### 步骤 1:在 Nebula Graph 中创建 Schema -分析CSV文件中的数据,按以下步骤在Nebula Graph中创建Schema: +分析 CSV 文件中的数据,按以下步骤在 Nebula Graph 中创建 Schema: -1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。 +1. 确认 Schema 要素。Nebula Graph 中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -57,7 +57,7 @@ | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 使用Nebula Console创建一个图空间**basketballplayer**,并创建一个Schema,如下所示。 +2. 使用 Nebula Console 创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -66,43 +66,43 @@ replica_factor = 1, \ vid_type = FIXED_STRING(30)); - ## 选择图空间basketballplayer + ## 选择图空间 basketballplayer nebula> USE basketballplayer; - ## 创建Tag player + ## 创建 Tag player nebula> CREATE TAG player(name string, age int); - ## 创建Tag team + ## 创建 Tag team nebula> CREATE TAG team(name string); - ## 创建Edge type follow + ## 创建 Edge type follow nebula> CREATE EDGE follow(degree int); - ## 创建Edge type serve + ## 创建 Edge type serve nebula> CREATE EDGE serve(start_year int, end_year int); ``` -更多信息,请参见[快速开始](../../2.quick-start/1.quick-start-workflow.md)。 +更多信息,请参见 [快速开始](../../2.quick-start/1.quick-start-workflow.md)。 -### 步骤 2:处理CSV文件 +### 步骤 2:处理 CSV 文件 确认以下信息: -1. 处理CSV文件以满足Schema的要求。 +1. 处理 CSV 文件以满足 Schema 的要求。 !!! note - Exchange支持上传有表头或者无表头的CSV文件。 + Exchange 支持上传有表头或者无表头的 CSV 文件。 -2. 获取CSV文件存储路径。 +2. 获取 CSV 文件存储路径。 ### 步骤 3:修改配置文件 -编译Exchange后,复制`target/classes/application.conf`文件设置CSV数据源相关的配置。在本示例中,复制的文件名为`csv_application.conf`。各个配置项的详细说明请参见[配置说明](../parameter-reference/ex-ug-parameter.md)。 +编译 Exchange 后,复制`target/classes/application.conf`文件设置 CSV 数据源相关的配置。在本示例中,复制的文件名为`csv_application.conf`。各个配置项的详细说明请参见 [配置说明](../parameter-reference/ex-ug-parameter.md)。 ```conf { - # Spark相关配置 + # Spark 相关配置 spark: { app: { name: Nebula Exchange {{exchange.release}} @@ -120,17 +120,17 @@ } } - # Nebula Graph相关配置 + # Nebula Graph 相关配置 nebula: { address:{ - # 指定Graph服务和所有Meta服务的IP地址和端口。 + # 指定 Graph 服务和所有 Meta 服务的 IP 地址和端口。 # 如果有多台服务器,地址之间用英文逗号(,)分隔。 - # 格式: "ip1:port","ip2:port","ip3:port" + # 格式:"ip1:port","ip2:port","ip3:port" graph:["127.0.0.1:9669"] meta:["127.0.0.1:9559"] } - # 指定拥有Nebula Graph写权限的用户名和密码。 + # 指定拥有 Nebula Graph 写权限的用户名和密码。 user: root pswd: nebula @@ -155,34 +155,34 @@ # 处理点 tags: [ - # 设置Tag player相关信息。 + # 设置 Tag player 相关信息。 { - # 指定Nebula Graph中定义的Tag名称。 + # 指定 Nebula Graph 中定义的 Tag 名称。 name: player type: { - # 指定数据源,使用CSV。 + # 指定数据源,使用 CSV。 source: csv - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定CSV文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.csv"。 + # 指定 CSV 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.csv"。 path: "hdfs://192.168.*.*:9000/data/vertex_player.csv" - # 如果CSV文件没有表头,使用[_c0, _c1, _c2, ..., _cn]表示其表头,并将列指示为属性值的源。 - # 如果CSV文件有表头,则使用实际的列名。 + # 如果 CSV 文件没有表头,使用 [_c0, _c1, _c2, ..., _cn] 表示其表头,并将列指示为属性值的源。 + # 如果 CSV 文件有表头,则使用实际的列名。 fields: [_c1, _c2] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [age, name] - # 指定一个列作为VID的源。 - # vertex的值必须与上述fields或者csv.fields中的列名保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # 指定一个列作为 VID 的源。 + # vertex 的值必须与上述 fields 或者 csv.fields 中的列名保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:_c0 # policy:hash @@ -191,45 +191,45 @@ # 指定的分隔符。默认值为英文逗号(,)。 separator: "," - # 如果CSV文件有表头,请将header设置为true。 - # 如果CSV文件没有表头,请将header设置为false。默认值为false。 + # 如果 CSV 文件有表头,请将 header 设置为 true。 + # 如果 CSV 文件没有表头,请将 header 设置为 false。默认值为 false。 header: false - # 指定单批次写入Nebula Graph的最大点数量。 + # 指定单批次写入 Nebula Graph 的最大点数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 设置Tag team相关信息。 + # 设置 Tag team 相关信息。 { - # 指定Nebula Graph中定义的Tag名称。 + # 指定 Nebula Graph 中定义的 Tag 名称。 name: team type: { - # 指定数据源,使用CSV。 + # 指定数据源,使用 CSV。 source: csv - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定CSV文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.csv"。 + # 指定 CSV 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.csv"。 path: "hdfs://192.168.*.*:9000/data/vertex_team.csv" - # 如果CSV文件没有表头,使用[_c0, _c1, _c2, ..., _cn]表示其表头,并将列指示为属性值的源。 - # 如果CSV文件有表头,则使用实际的列名。 + # 如果 CSV 文件没有表头,使用 [_c0, _c1, _c2, ..., _cn] 表示其表头,并将列指示为属性值的源。 + # 如果 CSV 文件有表头,则使用实际的列名。 fields: [_c1] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [name] - # 指定一个列作为VID的源。 - # vertex的值必须与上述fields或者csv.fields中的列名保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # 指定一个列作为 VID 的源。 + # vertex 的值必须与上述 fields 或者 csv.fields 中的列名保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:_c0 # policy:hash @@ -238,50 +238,49 @@ # 指定的分隔符。默认值为英文逗号(,)。 separator: "," - # 如果CSV文件有表头,请将header设置为true。 - # 如果CSV文件没有表头,请将header设置为false。默认值为false。 + # 如果 CSV 文件有表头,请将 header 设置为 true。 + # 如果 CSV 文件没有表头,请将 header 设置为 false。默认值为 false。 header: false - # 指定单批次写入Nebula Graph的最大点数量。 + # 指定单批次写入 Nebula Graph 的最大点数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 如果需要添加更多点,请参考前面的配置进行添加。 ] # 处理边 edges: [ - # 设置Edge type follow相关信息。 + # 设置 Edge type follow 相关信息。 { - # 指定Nebula Graph中定义的Edge type名称。 + # 指定 Nebula Graph 中定义的 Edge type 名称。 name: follow type: { - # 指定数据源,使用CSV。 + # 指定数据源,使用 CSV。 source: csv - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定CSV文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.csv"。 + # 指定 CSV 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.csv"。 path: "hdfs://192.168.*.*:9000/data/edge_follow.csv" - # 如果CSV文件没有表头,使用[_c0, _c1, _c2, ..., _cn]表示其表头,并将列指示为属性值的源。 - # 如果CSV文件有表头,则使用实际的列名。 + # 如果 CSV 文件没有表头,使用 [_c0, _c1, _c2, ..., _cn] 表示其表头,并将列指示为属性值的源。 + # 如果 CSV 文件有表头,则使用实际的列名。 fields: [_c2] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [degree] # 指定一个列作为起始点和目的点的源。 - # vertex的值必须与上述fields或者csv.fields中的列名保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # vertex 的值必须与上述 fields 或者 csv.fields 中的列名保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: _c0 } @@ -292,49 +291,49 @@ # 指定的分隔符。默认值为英文逗号(,)。 separator: "," - # 指定一个列作为rank的源(可选)。 + # 指定一个列作为 rank 的源(可选)。 #ranking: rank - # 如果CSV文件有表头,请将header设置为true。 - # 如果CSV文件没有表头,请将header设置为false。默认值为false。 + # 如果 CSV 文件有表头,请将 header 设置为 true。 + # 如果 CSV 文件没有表头,请将 header 设置为 false。默认值为 false。 header: false - # 指定单批次写入Nebula Graph的最大边数量。 + # 指定单批次写入 Nebula Graph 的最大边数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 设置Edge type serve相关信息。 + # 设置 Edge type serve 相关信息。 { - # 指定Nebula Graph中定义的Edge type名称。 + # 指定 Nebula Graph 中定义的 Edge type 名称。 name: serve type: { - # 指定数据源,使用CSV。 + # 指定数据源,使用 CSV。 source: csv - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定CSV文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.csv"。 + # 指定 CSV 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.csv"。 path: "hdfs://192.168.*.*:9000/data/edge_serve.csv" - # 如果CSV文件没有表头,使用[_c0, _c1, _c2, ..., _cn]表示其表头,并将列指示为属性值的源。 - # 如果CSV文件有表头,则使用实际的列名。 + # 如果 CSV 文件没有表头,使用 [_c0, _c1, _c2, ..., _cn] 表示其表头,并将列指示为属性值的源。 + # 如果 CSV 文件有表头,则使用实际的列名。 fields: [_c2,_c3] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [start_year, end_year] # 指定一个列作为起始点和目的点的源。 - # vertex的值必须与上述fields或者csv.fields中的列名保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # vertex 的值必须与上述 fields 或者 csv.fields 中的列名保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: _c0 } @@ -345,17 +344,17 @@ # 指定的分隔符。默认值为英文逗号(,)。 separator: "," - # 指定一个列作为rank的源(可选)。 + # 指定一个列作为 rank 的源(可选)。 #ranking: _c5 - # 如果CSV文件有表头,请将header设置为true。 - # 如果CSV文件没有表头,请将header设置为false。默认值为false。 + # 如果 CSV 文件有表头,请将 header 设置为 true。 + # 如果 CSV 文件没有表头,请将 header 设置为 false。默认值为 false。 header: false - # 指定单批次写入Nebula Graph的最大边数量。 + # 指定单批次写入 Nebula Graph 的最大边数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } @@ -364,9 +363,9 @@ } ``` -### 步骤 4:向Nebula Graph导入数据 +### 步骤 4:向 Nebula Graph 导入数据 -运行如下命令将CSV文件数据导入到Nebula Graph中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 CSV 文件数据导入到 Nebula Graph 中。关于参数的说明,请参见 [导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -374,7 +373,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchan !!! note - JAR包有两种获取方式:[自行编译](../ex-ug-compile.md)或者从maven仓库下载。 + JAR 包有两种获取方式:[自行编译](../ex-ug-compile.md) 或者从 maven 仓库下载。 示例: @@ -386,14 +385,14 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 5:(可选)验证数据 -用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在 Nebula Graph 客户端(例如 Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql GO FROM "player100" OVER follow; ``` -用户也可以使用命令[`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md)查看统计数据。 +用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 6:(如有)在Nebula Graph中重建索引 +### 步骤 6:(如有)在 Nebula Graph 中重建索引 -导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在 Nebula Graph 中重新创建并重建索引。详情请参见 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-hbase.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-hbase.md index 13b5520c01d..3732e9d78d5 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-hbase.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-hbase.md @@ -1,12 +1,12 @@ -# 导入HBase数据 +# 导入 HBase 数据 -本文以一个示例说明如何使用Exchange将存储在HBase上的数据导入Nebula Graph。 +本文以一个示例说明如何使用 Exchange 将存储在 HBase 上的数据导入 Nebula Graph。 ## 数据集 -本文以[basketballplayer数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip)为例。 +本文以 [basketballplayer 数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip) 为例。 -在本示例中,该数据集已经存入HBase中,以`player`、`team`、`follow`和`serve`四个表存储了所有点和边的信息。以下为各个表的部分数据。 +在本示例中,该数据集已经存入 HBase 中,以`player`、`team`、`follow`和`serve`四个表存储了所有点和边的信息。以下为各个表的部分数据。 ```sql hbase(main):002:0> scan "player" @@ -45,7 +45,7 @@ ROW COLUMN+CELL ## 环境配置 -本文示例在MacOS下完成,以下是相关的环境配置信息: +本文示例在 MacOS 下完成,以下是相关的环境配置信息: - 硬件规格: - CPU:1.7 GHz Quad-Core Intel Core i7 @@ -57,33 +57,33 @@ ROW COLUMN+CELL - HBase:2.2.7 -- Nebula Graph:{{nebula.release}}。使用[Docker Compose部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- Nebula Graph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)并获取如下信息: +- 已经 [安装部署 Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - - Graph服务和Meta服务的的IP地址和端口。 + - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有Nebula Graph写权限的用户名和密码。 + - 拥有 Nebula Graph 写权限的用户名和密码。 -- 已经编译Exchange。详情请参见[编译Exchange](../ex-ug-compile.md)。本示例中使用Exchange {{exchange.release}}。 +- 已经编译 Exchange。详情请参见 [编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 -- 已经安装Spark。 +- 已经安装 Spark。 -- 了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。 +- 了解 Nebula Graph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 -- 已经安装并开启Hadoop服务。 +- 已经安装并开启 Hadoop 服务。 ## 操作步骤 -### 步骤 1:在Nebula Graph中创建Schema +### 步骤 1:在 Nebula Graph 中创建 Schema -分析数据,按以下步骤在Nebula Graph中创建Schema: +分析数据,按以下步骤在 Nebula Graph 中创建 Schema: -1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。 +1. 确认 Schema 要素。Nebula Graph 中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -92,7 +92,7 @@ ROW COLUMN+CELL | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 在Nebula Graph中创建一个图空间**basketballplayer**,并创建一个Schema,如下所示。 +2. 在 Nebula Graph 中创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -101,31 +101,31 @@ ROW COLUMN+CELL replica_factor = 1, \ vid_type = FIXED_STRING(30)); - ## 选择图空间basketballplayer + ## 选择图空间 basketballplayer nebula> USE basketballplayer; - ## 创建Tag player + ## 创建 Tag player nebula> CREATE TAG player(name string, age int); - ## 创建Tag team + ## 创建 Tag team nebula> CREATE TAG team(name string); - ## 创建Edge type follow + ## 创建 Edge type follow nebula> CREATE EDGE follow(degree int); - ## 创建Edge type serve + ## 创建 Edge type serve nebula> CREATE EDGE serve(start_year int, end_year int); ``` -更多信息,请参见[快速开始](../../2.quick-start/1.quick-start-workflow.md)。 +更多信息,请参见 [快速开始](../../2.quick-start/1.quick-start-workflow.md)。 ### 步骤 2:修改配置文件 -编译Exchange后,复制`target/classes/application.conf`文件设置HBase数据源相关的配置。在本示例中,复制的文件名为`hbase_application.conf`。各个配置项的详细说明请参见[配置说明](../parameter-reference/ex-ug-parameter.md)。 +编译 Exchange 后,复制`target/classes/application.conf`文件设置 HBase 数据源相关的配置。在本示例中,复制的文件名为`hbase_application.conf`。各个配置项的详细说明请参见 [配置说明](../parameter-reference/ex-ug-parameter.md)。 ```conf { - # Spark相关配置 + # Spark 相关配置 spark: { app: { name: Nebula Exchange {{exchange.release}} @@ -139,20 +139,19 @@ ROW COLUMN+CELL } } - - # Nebula Graph相关配置 + # Nebula Graph 相关配置 nebula: { address:{ - # 以下为Nebula Graph的Graph服务和Meta服务所在机器的IP地址及端口。 + # 以下为 Nebula Graph 的 Graph 服务和 Meta 服务所在机器的 IP 地址及端口。 # 如果有多个地址,格式为 "ip1:port","ip2:port","ip3:port"。 # 不同地址之间以英文逗号 (,) 隔开。 graph:["127.0.0.1:9669"] meta:["127.0.0.1:9559"] } - # 填写的账号必须拥有Nebula Graph相应图空间的写数据权限。 + # 填写的账号必须拥有 Nebula Graph 相应图空间的写数据权限。 user: root pswd: nebula - # 填写Nebula Graph中需要写入数据的图空间名称。 + # 填写 Nebula Graph 中需要写入数据的图空间名称。 space: basketballplayer connection { timeout: 3000 @@ -172,15 +171,15 @@ ROW COLUMN+CELL } # 处理点 tags: [ - # 设置Tag player相关信息。 - # 如果需要将rowkey设置为数据源,请填写“rowkey”,列族内的列请填写实际列名。 + # 设置 Tag player 相关信息。 + # 如果需要将 rowkey 设置为数据源,请填写“rowkey”, 列族内的列请填写实际列名。 { - # Nebula Graph中对应的Tag名称。 + # Nebula Graph 中对应的 Tag 名称。 name: player type: { - # 指定数据源文件格式,设置为HBase。 + # 指定数据源文件格式,设置为 HBase。 source: hbase - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } host:192.168.*.* @@ -188,26 +187,25 @@ ROW COLUMN+CELL table:"player" columnFamily:"cf" - # 在fields里指定player表中的列名称,其对应的value会作为Nebula Graph中指定属性。 - # fields和nebula.fields里的配置必须一一对应。 + # 在 fields 里指定 player 表中的列名称,其对应的 value 会作为 Nebula Graph 中指定属性。 + # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [age,name] nebula.fields: [age,name] - # 指定表中某一列数据为Nebula Graph中点VID的来源。 - # 例如rowkey作为VID的来源,请填写“rowkey”。 + # 指定表中某一列数据为 Nebula Graph 中点 VID 的来源。 + # 例如 rowkey 作为 VID 的来源,请填写“rowkey”。 vertex:{ field:rowkey } - # 单批次写入 Nebula Graph 的数据条数。 batch: 256 # Spark 分区数量 partition: 32 } - # 设置Tag team相关信息。 + # 设置 Tag team 相关信息。 { name: team type: { @@ -231,17 +229,17 @@ ROW COLUMN+CELL # 处理边数据 edges: [ - # 设置Edge type follow相关信息 + # 设置 Edge type follow 相关信息 { - # Nebula Graph中对应的Edge type名称。 + # Nebula Graph 中对应的 Edge type 名称。 name: follow type: { - # 指定数据源文件格式,设置为HBase。 + # 指定数据源文件格式,设置为 HBase。 source: hbase - # 指定边数据导入Nebula Graph的方式, - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定边数据导入 Nebula Graph 的方式, + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } @@ -250,24 +248,22 @@ ROW COLUMN+CELL table:"follow" columnFamily:"cf" - # 在fields里指定follow表中的列名称,其对应的value会作为Nebula Graph中指定属性。 - # fields和nebula.fields里的配置必须一一对应。 + # 在 fields 里指定 follow 表中的列名称,其对应的 value 会作为 Nebula Graph 中指定属性。 + # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [degree] nebula.fields: [degree] - # 在source里,将follow表中某一列作为边的起始点数据源。示例使用rowkey。 - # 在target里,将follow表中某一列作为边的目的点数据源。示例使用列dst_player。 + # 在 source 里,将 follow 表中某一列作为边的起始点数据源。示例使用 rowkey。 + # 在 target 里,将 follow 表中某一列作为边的目的点数据源。示例使用列 dst_player。 source:{ field:rowkey } - target:{ field:dst_player } - # 单批次写入 Nebula Graph 的数据条数。 batch: 256 @@ -275,7 +271,7 @@ ROW COLUMN+CELL partition: 32 } - # 设置Edge type serve相关信息 + # 设置 Edge type serve 相关信息 { name: serve type: { @@ -304,9 +300,9 @@ ROW COLUMN+CELL } ``` -### 步骤 3:向Nebula Graph导入数据 +### 步骤 3:向 Nebula Graph 导入数据 -运行如下命令将HBase数据导入到Nebula Graph中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 HBase 数据导入到 Nebula Graph 中。关于参数的说明,请参见 [导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -314,7 +310,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchan !!! note - JAR包有两种获取方式:[自行编译](../ex-ug-compile.md)或者从maven仓库下载。 + JAR 包有两种获取方式:[自行编译](../ex-ug-compile.md) 或者从 maven 仓库下载。 示例: @@ -326,14 +322,14 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 4:(可选)验证数据 -用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在 Nebula Graph 客户端(例如 Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql GO FROM "player100" OVER follow; ``` -用户也可以使用命令[`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md)查看统计数据。 +用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 5:(如有)在Nebula Graph中重建索引 +### 步骤 5:(如有)在 Nebula Graph 中重建索引 -导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 \ No newline at end of file +导入数据后,用户可以在 Nebula Graph 中重新创建并重建索引。详情请参见 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 \ No newline at end of file diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-hive.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-hive.md index 68c87dc148a..97b2fb5fcc2 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-hive.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-hive.md @@ -1,12 +1,12 @@ -# 导入Hive数据 +# 导入 Hive 数据 -本文以一个示例说明如何使用Exchange将存储在Hive上的数据导入Nebula Graph。 +本文以一个示例说明如何使用 Exchange 将存储在 Hive 上的数据导入 Nebula Graph。 ## 数据集 -本文以[basketballplayer数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip)为例。 +本文以 [basketballplayer 数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip) 为例。 -在本示例中,该数据集已经存入Hive中名为`basketball`的数据库中,以`player`、`team`、`follow`和`serve`四个表存储了所有点和边的信息。以下为各个表的结构。 +在本示例中,该数据集已经存入 Hive 中名为`basketball`的数据库中,以`player`、`team`、`follow`和`serve`四个表存储了所有点和边的信息。以下为各个表的结构。 ```sql scala> spark.sql("describe basketball.player").show @@ -46,11 +46,11 @@ scala> spark.sql("describe basketball.serve").show +----------+---------+-------+ ``` -> **说明**:Hive的数据类型`bigint`与Nebula Graph的`int`对应。 +> **说明**:Hive 的数据类型`bigint`与 Nebula Graph 的`int`对应。 ## 环境配置 -本文示例在MacOS下完成,以下是相关的环境配置信息: +本文示例在 MacOS 下完成,以下是相关的环境配置信息: - 硬件规格: - CPU:1.7 GHz Quad-Core Intel Core i7 @@ -62,33 +62,33 @@ scala> spark.sql("describe basketball.serve").show - Hive:2.3.7,Hive Metastore 数据库为 MySQL 8.0.22 -- Nebula Graph:{{nebula.release}}。使用[Docker Compose部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- Nebula Graph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)并获取如下信息: +- 已经 [安装部署 Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - - Graph服务和Meta服务的的IP地址和端口。 + - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有Nebula Graph写权限的用户名和密码。 + - 拥有 Nebula Graph 写权限的用户名和密码。 -- 已经编译Exchange。详情请参见[编译Exchange](../ex-ug-compile.md)。本示例中使用Exchange {{exchange.release}}。 +- 已经编译 Exchange。详情请参见 [编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 -- 已经安装Spark。 +- 已经安装 Spark。 -- 了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。 +- 了解 Nebula Graph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 -- 已经安装并开启Hadoop服务,并已启动Hive Metastore数据库(本示例中为 MySQL)。 +- 已经安装并开启 Hadoop 服务,并已启动 Hive Metastore 数据库(本示例中为 MySQL)。 ## 操作步骤 -### 步骤 1:在Nebula Graph中创建Schema +### 步骤 1:在 Nebula Graph 中创建 Schema -分析数据,按以下步骤在Nebula Graph中创建Schema: +分析数据,按以下步骤在 Nebula Graph 中创建 Schema: -1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。 +1. 确认 Schema 要素。Nebula Graph 中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -97,7 +97,7 @@ scala> spark.sql("describe basketball.serve").show | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 在Nebula Graph中创建一个图空间**basketballplayer**,并创建一个Schema,如下所示。 +2. 在 Nebula Graph 中创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -106,27 +106,27 @@ scala> spark.sql("describe basketball.serve").show replica_factor = 1, \ vid_type = FIXED_STRING(30)); - ## 选择图空间basketballplayer + ## 选择图空间 basketballplayer nebula> USE basketballplayer; - ## 创建Tag player + ## 创建 Tag player nebula> CREATE TAG player(name string, age int); - ## 创建Tag team + ## 创建 Tag team nebula> CREATE TAG team(name string); - ## 创建Edge type follow + ## 创建 Edge type follow nebula> CREATE EDGE follow(degree int); - ## 创建Edge type serve + ## 创建 Edge type serve nebula> CREATE EDGE serve(start_year int, end_year int); ``` -更多信息,请参见[快速开始](../../2.quick-start/1.quick-start-workflow.md)。 +更多信息,请参见 [快速开始](../../2.quick-start/1.quick-start-workflow.md)。 -### 步骤 2:使用Spark SQL确认Hive SQL语句 +### 步骤 2:使用 Spark SQL 确认 Hive SQL 语句 -启动spark-shell环境后,依次运行以下语句,确认Spark能读取Hive中的数据。 +启动 spark-shell 环境后,依次运行以下语句,确认 Spark 能读取 Hive 中的数据。 ```sql scala> sql("select playerid, age, name from basketball.player").show @@ -152,11 +152,11 @@ scala> sql("select playerid, teamid, start_year, end_year from basketball.serve" ### 步骤 3:修改配置文件 -编译Exchange后,复制`target/classes/application.conf`文件设置Hive数据源相关的配置。在本示例中,复制的文件名为`hive_application.conf`。各个配置项的详细说明请参见[配置说明](../parameter-reference/ex-ug-parameter.md)。 +编译 Exchange 后,复制`target/classes/application.conf`文件设置 Hive 数据源相关的配置。在本示例中,复制的文件名为`hive_application.conf`。各个配置项的详细说明请参见 [配置说明](../parameter-reference/ex-ug-parameter.md)。 ```conf { - # Spark相关配置 + # Spark 相关配置 spark: { app: { name: Nebula Exchange {{exchange.release}} @@ -170,7 +170,7 @@ scala> sql("select playerid, teamid, start_year, end_year from basketball.serve" } } - # 如果Spark和Hive部署在不同集群,才需要配置连接Hive的参数,否则请忽略这些配置。 + # 如果 Spark 和 Hive 部署在不同集群,才需要配置连接 Hive 的参数,否则请忽略这些配置。 #hive: { # waredir: "hdfs://NAMENODE_IP:9000/apps/svr/hive-xxx/warehouse/" # connectionURL: "jdbc:mysql://your_ip:3306/hive_spark?characterEncoding=UTF-8" @@ -179,19 +179,19 @@ scala> sql("select playerid, teamid, start_year, end_year from basketball.serve" # connectionPassword: "password" #} - # Nebula Graph相关配置 + # Nebula Graph 相关配置 nebula: { address:{ - # 以下为Nebula Graph的Graph服务和所有Meta服务所在机器的IP地址及端口。 + # 以下为 Nebula Graph 的 Graph 服务和所有 Meta 服务所在机器的 IP 地址及端口。 # 如果有多个地址,格式为 "ip1:port","ip2:port","ip3:port"。 # 不同地址之间以英文逗号 (,) 隔开。 graph:["127.0.0.1:9669"] meta:["127.0.0.1:9559"] } - # 填写的账号必须拥有Nebula Graph相应图空间的写数据权限。 + # 填写的账号必须拥有 Nebula Graph 相应图空间的写数据权限。 user: root pswd: nebula - # 填写Nebula Graph中需要写入数据的图空间名称。 + # 填写 Nebula Graph 中需要写入数据的图空间名称。 space: basketballplayer connection { timeout: 3000 @@ -211,27 +211,27 @@ scala> sql("select playerid, teamid, start_year, end_year from basketball.serve" } # 处理点 tags: [ - # 设置Tag player相关信息。 + # 设置 Tag player 相关信息。 { - # Nebula Graph中对应的Tag名称。 + # Nebula Graph 中对应的 Tag 名称。 name: player type: { - # 指定数据源文件格式,设置为hive。 + # 指定数据源文件格式,设置为 hive。 source: hive - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 设置读取数据库basketball中player表数据的SQL语句 + # 设置读取数据库 basketball 中 player 表数据的 SQL 语句 exec: "select playerid, age, name from basketball.player" - # 在fields里指定player表中的列名称,其对应的value会作为Nebula Graph中指定属性。 - # fields和nebula.fields里的配置必须一一对应。 + # 在 fields 里指定 player 表中的列名称,其对应的 value 会作为 Nebula Graph 中指定属性。 + # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [age,name] nebula.fields: [age,name] - # 指定表中某一列数据为Nebula Graph中点VID的来源。 + # 指定表中某一列数据为 Nebula Graph 中点 VID 的来源。 vertex:{ field:playerid } @@ -242,7 +242,7 @@ scala> sql("select playerid, teamid, start_year, end_year from basketball.serve" # Spark 分区数量 partition: 32 } - # 设置Tag team相关信息。 + # 设置 Tag team 相关信息。 { name: team type: { @@ -263,31 +263,31 @@ scala> sql("select playerid, teamid, start_year, end_year from basketball.serve" # 处理边数据 edges: [ - # 设置Edge type follow相关信息 + # 设置 Edge type follow 相关信息 { - # Nebula Graph中对应的Edge type名称。 + # Nebula Graph 中对应的 Edge type 名称。 name: follow type: { - # 指定数据源文件格式,设置为hive。 + # 指定数据源文件格式,设置为 hive。 source: hive - # 指定边数据导入Nebula Graph的方式, - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定边数据导入 Nebula Graph 的方式, + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 设置读取数据库basketball中follow表数据的SQL语句。 + # 设置读取数据库 basketball 中 follow 表数据的 SQL 语句。 exec: "select src_player, dst_player, degree from basketball.follow" - # 在fields里指定follow表中的列名称,其对应的value会作为Nebula Graph中指定属性。 - # fields和nebula.fields里的配置必须一一对应。 + # 在 fields 里指定 follow 表中的列名称,其对应的 value 会作为 Nebula Graph 中指定属性。 + # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [degree] nebula.fields: [degree] - # 在source里,将follow表中某一列作为边的起始点数据源。 - # 在target里,将follow表中某一列作为边的目的点数据源。 + # 在 source 里,将 follow 表中某一列作为边的起始点数据源。 + # 在 target 里,将 follow 表中某一列作为边的目的点数据源。 source: { field: src_player } @@ -303,7 +303,7 @@ scala> sql("select playerid, teamid, start_year, end_year from basketball.serve" partition: 32 } - # 设置Edge type serve相关信息 + # 设置 Edge type serve 相关信息 { name: serve type: { @@ -326,9 +326,9 @@ scala> sql("select playerid, teamid, start_year, end_year from basketball.serve" } ``` -### 步骤 4:向Nebula Graph导入数据 +### 步骤 4:向 Nebula Graph 导入数据 -运行如下命令将Hive数据导入到Nebula Graph中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 Hive 数据导入到 Nebula Graph 中。关于参数的说明,请参见 [导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c -h @@ -336,7 +336,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchan !!! note - JAR包有两种获取方式:[自行编译](../ex-ug-compile.md)或者从maven仓库下载。 + JAR 包有两种获取方式:[自行编译](../ex-ug-compile.md) 或者从 maven 仓库下载。 示例: @@ -348,14 +348,14 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 5:(可选)验证数据 -用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在 Nebula Graph 客户端(例如 Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql GO FROM "player100" OVER follow; ``` -用户也可以使用命令[`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats/)查看统计数据。 +用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats/) 查看统计数据。 -### 步骤 6:(如有)在Nebula Graph中重建索引 +### 步骤 6:(如有)在 Nebula Graph 中重建索引 -导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 \ No newline at end of file +导入数据后,用户可以在 Nebula Graph 中重新创建并重建索引。详情请参见 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 \ No newline at end of file diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-json.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-json.md index d35ca59c732..a83d3aa9487 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-json.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-json.md @@ -1,10 +1,10 @@ -# 导入JSON文件数据 +# 导入 JSON 文件数据 -本文以一个示例说明如何使用Exchange将存储在HDFS或本地的JSON文件数据导入Nebula Graph。 +本文以一个示例说明如何使用 Exchange 将存储在 HDFS 或本地的 JSON 文件数据导入 Nebula Graph。 ## 数据集 -本文以basketballplayer数据集为例。部分示例数据如下: +本文以 basketballplayer 数据集为例。部分示例数据如下: - player @@ -42,7 +42,7 @@ ## 环境配置 -本文示例在MacOS下完成,以下是相关的环境配置信息: +本文示例在 MacOS 下完成,以下是相关的环境配置信息: - 硬件规格: - CPU:1.7 GHz Quad-Core Intel Core i7 @@ -52,35 +52,35 @@ - Hadoop:2.9.2,伪分布式部署 -- Nebula Graph:{{nebula.release}}。使用[Docker Compose部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- Nebula Graph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)并获取如下信息: +- 已经 [安装部署 Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - - Graph服务和Meta服务的的IP地址和端口。 + - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有Nebula Graph写权限的用户名和密码。 + - 拥有 Nebula Graph 写权限的用户名和密码。 -- 已经编译Exchange。详情请参见[编译Exchange](../ex-ug-compile.md)。本示例中使用Exchange {{exchange.release}}。 +- 已经编译 Exchange。详情请参见 [编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 -- 已经安装Spark。 +- 已经安装 Spark。 -- 了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。 +- 了解 Nebula Graph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 -- 如果文件存储在HDFS上,需要确认Hadoop服务运行正常。 +- 如果文件存储在 HDFS 上,需要确认 Hadoop 服务运行正常。 -- 如果文件存储在本地且Nebula Graph是集群架构,需要在集群每台机器本地相同目录下放置文件。 +- 如果文件存储在本地且 Nebula Graph 是集群架构,需要在集群每台机器本地相同目录下放置文件。 ## 操作步骤 -### 步骤 1:在Nebula Graph中创建Schema +### 步骤 1:在 Nebula Graph 中创建 Schema -分析文件中的数据,按以下步骤在Nebula Graph中创建Schema: +分析文件中的数据,按以下步骤在 Nebula Graph 中创建 Schema: -1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。 +1. 确认 Schema 要素。Nebula Graph 中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -89,7 +89,7 @@ | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 使用Nebula Console创建一个图空间**basketballplayer**,并创建一个Schema,如下所示。 +2. 使用 Nebula Console 创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -98,39 +98,39 @@ replica_factor = 1, \ vid_type = FIXED_STRING(30)); - ## 选择图空间basketballplayer + ## 选择图空间 basketballplayer nebula> USE basketballplayer; - ## 创建Tag player + ## 创建 Tag player nebula> CREATE TAG player(name string, age int); - ## 创建Tag team + ## 创建 Tag team nebula> CREATE TAG team(name string); - ## 创建Edge type follow + ## 创建 Edge type follow nebula> CREATE EDGE follow(degree int); - ## 创建Edge type serve + ## 创建 Edge type serve nebula> CREATE EDGE serve(start_year int, end_year int); ``` -更多信息,请参见[快速开始](../../2.quick-start/1.quick-start-workflow.md)。 +更多信息,请参见 [快速开始](../../2.quick-start/1.quick-start-workflow.md)。 -### 步骤 2:处理JSON文件 +### 步骤 2:处理 JSON 文件 确认以下信息: -1. 处理JSON文件以满足Schema的要求。 +1. 处理 JSON 文件以满足 Schema 的要求。 -2. 获取JSON文件存储路径。 +2. 获取 JSON 文件存储路径。 ### 步骤 3. 修改配置文件 -编译Exchange后,复制`target/classes/application.conf`文件设置JSON数据源相关的配置。在本示例中,复制的文件名为`json_application.conf`。各个配置项的详细说明请参见[配置说明](../parameter-reference/ex-ug-parameter.md)。 +编译 Exchange 后,复制`target/classes/application.conf`文件设置 JSON 数据源相关的配置。在本示例中,复制的文件名为`json_application.conf`。各个配置项的详细说明请参见 [配置说明](../parameter-reference/ex-ug-parameter.md)。 ```conf { - # Spark相关配置 + # Spark 相关配置 spark: { app: { name: Nebula Exchange {{exchange.release}} @@ -148,17 +148,17 @@ } } - # Nebula Graph相关配置 + # Nebula Graph 相关配置 nebula: { address:{ - # 指定Graph服务和所有Meta服务的IP地址和端口。 + # 指定 Graph 服务和所有 Meta 服务的 IP 地址和端口。 # 如果有多台服务器,地址之间用英文逗号(,)分隔。 - # 格式: "ip1:port","ip2:port","ip3:port" + # 格式:"ip1:port","ip2:port","ip3:port" graph:["127.0.0.1:9669"] meta:["127.0.0.1:9559"] } - # 指定拥有Nebula Graph写权限的用户名和密码。 + # 指定拥有 Nebula Graph 写权限的用户名和密码。 user: root pswd: nebula @@ -183,118 +183,116 @@ # 处理点 tags: [ - # 设置Tag player相关信息。 + # 设置 Tag player 相关信息。 { - # 指定Nebula Graph中定义的Tag名称。 + # 指定 Nebula Graph 中定义的 Tag 名称。 name: player type: { - # 指定数据源,使用JSON。 + # 指定数据源,使用 JSON。 source: json - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定JSON文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.json"。 + # 指定 JSON 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.json"。 path: "hdfs://192.168.*.*:9000/data/vertex_player.json" - # 在fields里指定JSON文件中key名称,其对应的value会作为Nebula Graph中指定属性的数据源。 + # 在 fields 里指定 JSON 文件中 key 名称,其对应的 value 会作为 Nebula Graph 中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [age,name] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [age, name] - # 指定一个列作为VID的源。 - # vertex的值必须与JSON文件中的字段保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # 指定一个列作为 VID 的源。 + # vertex 的值必须与 JSON 文件中的字段保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:id } - # 指定单批次写入Nebula Graph的最大点数量。 + # 指定单批次写入 Nebula Graph 的最大点数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 设置Tag team相关信息。 + # 设置 Tag team 相关信息。 { - # 指定Nebula Graph中定义的Tag名称。 + # 指定 Nebula Graph 中定义的 Tag 名称。 name: team type: { - # 指定数据源,使用JSON。 + # 指定数据源,使用 JSON。 source: json - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定JSON文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.json"。 + # 指定 JSON 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.json"。 path: "hdfs://192.168.*.*:9000/data/vertex_team.json" - # 在fields里指定JSON文件中key名称,其对应的value会作为Nebula Graph中指定属性的数据源。 + # 在 fields 里指定 JSON 文件中 key 名称,其对应的 value 会作为 Nebula Graph 中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [name] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [name] - # 指定一个列作为VID的源。 - # vertex的值必须与JSON文件中的字段保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # 指定一个列作为 VID 的源。 + # vertex 的值必须与 JSON 文件中的字段保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:id } - - # 指定单批次写入Nebula Graph的最大点数量。 + # 指定单批次写入 Nebula Graph 的最大点数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 如果需要添加更多点,请参考前面的配置进行添加。 ] # 处理边 edges: [ - # 设置Edge type follow相关信息。 + # 设置 Edge type follow 相关信息。 { - # 指定Nebula Graph中定义的Edge type名称。 + # 指定 Nebula Graph 中定义的 Edge type 名称。 name: follow type: { - # 指定数据源,使用JSON。 + # 指定数据源,使用 JSON。 source: json - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定JSON文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.json"。 + # 指定 JSON 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.json"。 path: "hdfs://192.168.*.*:9000/data/edge_follow.json" - # 在fields里指定JSON文件中key名称,其对应的value会作为Nebula Graph中指定属性的数据源。 + # 在 fields 里指定 JSON 文件中 key 名称,其对应的 value 会作为 Nebula Graph 中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [degree] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [degree] # 指定一个列作为起始点和目的点的源。 - # vertex的值必须与JSON文件中的字段保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # vertex 的值必须与 JSON 文件中的字段保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: src } @@ -302,45 +300,44 @@ field: dst } - - # 指定一个列作为rank的源(可选)。 + # 指定一个列作为 rank 的源(可选)。 #ranking: rank - # 指定单批次写入Nebula Graph的最大边数量。 + # 指定单批次写入 Nebula Graph 的最大边数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 设置Edge type serve相关信息。 + # 设置 Edge type serve 相关信息。 { - # 指定Nebula Graph中定义的Edge type名称。 + # 指定 Nebula Graph 中定义的 Edge type 名称。 name: serve type: { - # 指定数据源,使用JSON。 + # 指定数据源,使用 JSON。 source: json - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定JSON文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.json"。 + # 指定 JSON 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.json"。 path: "hdfs://192.168.*.*:9000/data/edge_serve.json" - # 在fields里指定JSON文件中key名称,其对应的value会作为Nebula Graph中指定属性的数据源。 + # 在 fields 里指定 JSON 文件中 key 名称,其对应的 value 会作为 Nebula Graph 中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [start_year,end_year] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [start_year, end_year] # 指定一个列作为起始点和目的点的源。 - # vertex的值必须与JSON文件中的字段保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # vertex 的值必须与 JSON 文件中的字段保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: src } @@ -348,15 +345,13 @@ field: dst } - - # 指定一个列作为rank的源(可选)。 + # 指定一个列作为 rank 的源(可选)。 #ranking: _c5 - - # 指定单批次写入Nebula Graph的最大边数量。 + # 指定单批次写入 Nebula Graph 的最大边数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } @@ -365,9 +360,9 @@ } ``` -### 步骤 4:向Nebula Graph导入数据 +### 步骤 4:向 Nebula Graph 导入数据 -运行如下命令将JSON文件数据导入到Nebula Graph中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 JSON 文件数据导入到 Nebula Graph 中。关于参数的说明,请参见 [导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -375,7 +370,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchan !!! note - JAR包有两种获取方式:[自行编译](../ex-ug-compile.md)或者从maven仓库下载。 + JAR 包有两种获取方式:[自行编译](../ex-ug-compile.md) 或者从 maven 仓库下载。 示例: @@ -387,14 +382,14 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 5:(可选)验证数据 -用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在 Nebula Graph 客户端(例如 Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql GO FROM "player100" OVER follow; ``` -用户也可以使用命令[`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md)查看统计数据。 +用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 6:(如有)在Nebula Graph中重建索引 +### 步骤 6:(如有)在 Nebula Graph 中重建索引 -导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在 Nebula Graph 中重新创建并重建索引。详情请参见 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-kafka.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-kafka.md index a8df7d82a36..5118e32cd24 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-kafka.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-kafka.md @@ -1,10 +1,10 @@ -# 导入Kafka数据 +# 导入 Kafka 数据 -本文简单说明如何使用Exchange将存储在Kafka上的数据导入Nebula Graph。 +本文简单说明如何使用 Exchange 将存储在 Kafka 上的数据导入 Nebula Graph。 ## 环境配置 -本文示例在MacOS下完成,以下是相关的环境配置信息: +本文示例在 MacOS 下完成,以下是相关的环境配置信息: - 硬件规格: - CPU:1.7 GHz Quad-Core Intel Core i7 @@ -12,33 +12,33 @@ - Spark:2.4.7,单机版 -- Nebula Graph:{{nebula.release}}。使用[Docker Compose部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- Nebula Graph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)并获取如下信息: +- 已经 [安装部署 Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - - Graph服务和Meta服务的的IP地址和端口。 + - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有Nebula Graph写权限的用户名和密码。 + - 拥有 Nebula Graph 写权限的用户名和密码。 -- 已经编译Exchange。详情请参见[编译Exchange](../ex-ug-compile.md)。本示例中使用Exchange {{exchange.release}}。 +- 已经编译 Exchange。详情请参见 [编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 -- 已经安装Spark。 +- 已经安装 Spark。 -- 了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。 +- 了解 Nebula Graph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 -- 已经安装并开启Kafka服务。 +- 已经安装并开启 Kafka 服务。 ## 操作步骤 -### 步骤 1:在Nebula Graph中创建Schema +### 步骤 1:在 Nebula Graph 中创建 Schema -分析数据,按以下步骤在Nebula Graph中创建Schema: +分析数据,按以下步骤在 Nebula Graph 中创建 Schema: -1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。 +1. 确认 Schema 要素。Nebula Graph 中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -47,7 +47,7 @@ | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 在Nebula Graph中创建一个图空间**basketballplayer**,并创建一个Schema,如下所示。 +2. 在 Nebula Graph 中创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -56,35 +56,35 @@ replica_factor = 1, \ vid_type = FIXED_STRING(30)); - ## 选择图空间basketballplayer + ## 选择图空间 basketballplayer nebula> USE basketballplayer; - ## 创建Tag player + ## 创建 Tag player nebula> CREATE TAG player(name string, age int); - ## 创建Tag team + ## 创建 Tag team nebula> CREATE TAG team(name string); - ## 创建Edge type follow + ## 创建 Edge type follow nebula> CREATE EDGE follow(degree int); - ## 创建Edge type serve + ## 创建 Edge type serve nebula> CREATE EDGE serve(start_year int, end_year int); ``` -更多信息,请参见[快速开始](../../2.quick-start/1.quick-start-workflow.md)。 +更多信息,请参见 [快速开始](../../2.quick-start/1.quick-start-workflow.md)。 ### 步骤 2:修改配置文件 !!! note - 如果部分数据存储在Kafka的value域内,需要自行修改源码,从Kafka中获取value域,将value通过from_json函数解析,然后作为Dataframe返回。 + 如果部分数据存储在 Kafka 的 value 域内,需要自行修改源码,从 Kafka 中获取 value 域,将 value 通过 from_json 函数解析,然后作为 Dataframe 返回。 -编译Exchange后,复制`target/classes/application.conf`文件设置Kafka数据源相关的配置。在本示例中,复制的文件名为`kafka_application.conf`。各个配置项的详细说明请参见[配置说明](../parameter-reference/ex-ug-parameter.md)。 +编译 Exchange 后,复制`target/classes/application.conf`文件设置 Kafka 数据源相关的配置。在本示例中,复制的文件名为`kafka_application.conf`。各个配置项的详细说明请参见 [配置说明](../parameter-reference/ex-ug-parameter.md)。 ```conf { - # Spark相关配置 + # Spark 相关配置 spark: { app: { name: Nebula Exchange {{exchange.release}} @@ -98,20 +98,19 @@ } } - - # Nebula Graph相关配置 + # Nebula Graph 相关配置 nebula: { address:{ - # 以下为Nebula Graph的Graph服务和Meta服务所在机器的IP地址及端口。 + # 以下为 Nebula Graph 的 Graph 服务和 Meta 服务所在机器的 IP 地址及端口。 # 如果有多个地址,格式为 "ip1:port","ip2:port","ip3:port"。 # 不同地址之间以英文逗号 (,) 隔开。 graph:["127.0.0.1:9669"] meta:["127.0.0.1:9559"] } - # 填写的账号必须拥有Nebula Graph相应图空间的写数据权限。 + # 填写的账号必须拥有 Nebula Graph 相应图空间的写数据权限。 user: root pswd: nebula - # 填写Nebula Graph中需要写入数据的图空间名称。 + # 填写 Nebula Graph 中需要写入数据的图空间名称。 space: basketballplayer connection { timeout: 3000 @@ -131,34 +130,33 @@ } # 处理点 tags: [ - # 设置Tag player相关信息。 + # 设置 Tag player 相关信息。 { - # Nebula Graph中对应的Tag名称。 + # Nebula Graph 中对应的 Tag 名称。 name: player type: { - # 指定数据源文件格式,设置为Kafka。 + # 指定数据源文件格式,设置为 Kafka。 source: kafka - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # Kafka服务器地址。 + # Kafka 服务器地址。 service: "127.0.0.1:9092" # 消息类别。 topic: "topic_name1" - # Kafka数据有固定的域名称:key、value、topic、partition、offset、timestamp、timestampType。 - # Spark读取为DataFrame后,如果需要指定多个字段,用英文逗号(,)隔开。 - # 在fields里指定字段名称,例如用key对应Nebula中的name, value对应Nebula中的age,示例如下: + # Kafka 数据有固定的域名称:key、value、topic、partition、offset、timestamp、timestampType。 + # Spark 读取为 DataFrame 后,如果需要指定多个字段,用英文逗号(,)隔开。 + # 在 fields 里指定字段名称,例如用 key 对应 Nebula 中的 name, value 对应 Nebula 中的 age,示例如下: fields: [key,value] nebula.fields: [name,age] - # 指定表中某一列数据为Nebula Graph中点VID的来源。 - # 这里的值key和上面的key重复,表示key既作为VID,也作为属性name。 + # 指定表中某一列数据为 Nebula Graph 中点 VID 的来源。 + # 这里的值 key 和上面的 key 重复,表示 key 既作为 VID,也作为属性 name。 vertex:{ field:key } - # 单批次写入 Nebula Graph 的数据条数。 batch: 10 @@ -167,7 +165,7 @@ # 读取消息的间隔。单位:秒。 interval.seconds: 10 } - # 设置Tag team相关信息。 + # 设置 Tag team 相关信息。 { name: team type: { @@ -190,43 +188,41 @@ # 处理边数据 edges: [ - # 设置Edge type follow相关信息 + # 设置 Edge type follow 相关信息 { - # Nebula Graph中对应的Edge type名称。 + # Nebula Graph 中对应的 Edge type 名称。 name: follow type: { - # 指定数据源文件格式,设置为Kafka。 + # 指定数据源文件格式,设置为 Kafka。 source: kafka - # 指定边数据导入Nebula Graph的方式, - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定边数据导入 Nebula Graph 的方式, + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # Kafka服务器地址。 + # Kafka 服务器地址。 service: "127.0.0.1:9092" # 消息类别。 topic: "topic_name3" - # Kafka数据有固定的域名称:key、value、topic、partition、offset、timestamp、timestampType。 - # Spark读取为DataFrame后,如果需要指定多个字段,用英文逗号(,)隔开。 - # 在fields里指定字段名称,例如用key对应Nebula中的degree,示例如下: + # Kafka 数据有固定的域名称:key、value、topic、partition、offset、timestamp、timestampType。 + # Spark 读取为 DataFrame 后,如果需要指定多个字段,用英文逗号(,)隔开。 + # 在 fields 里指定字段名称,例如用 key 对应 Nebula 中的 degree,示例如下: fields: [key] nebula.fields: [degree] - # 在source里,将topic中某一列作为边的起始点数据源。 - # 在target里,将topic中某一列作为边的目的点数据源。 + # 在 source 里,将 topic 中某一列作为边的起始点数据源。 + # 在 target 里,将 topic 中某一列作为边的目的点数据源。 source:{ field:timestamp } - target:{ field:offset } - # 单批次写入 Nebula Graph 的数据条数。 batch: 10 @@ -237,7 +233,7 @@ interval.seconds: 10 } - # 设置Edge type serve相关信息 + # 设置 Edge type serve 相关信息 { name: serve type: { @@ -265,9 +261,9 @@ } ``` -### 步骤 3:向Nebula Graph导入数据 +### 步骤 3:向 Nebula Graph 导入数据 -运行如下命令将Kafka数据导入到Nebula Graph中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 Kafka 数据导入到 Nebula Graph 中。关于参数的说明,请参见 [导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -275,7 +271,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchan !!! note - JAR包有两种获取方式:[自行编译](../ex-ug-compile.md)或者从maven仓库下载。 + JAR 包有两种获取方式:[自行编译](../ex-ug-compile.md) 或者从 maven 仓库下载。 示例: @@ -287,14 +283,14 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 4:(可选)验证数据 -用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在 Nebula Graph 客户端(例如 Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql GO FROM "player100" OVER follow; ``` -用户也可以使用命令[`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md)查看统计数据。 +用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 5:(如有)在Nebula Graph中重建索引 +### 步骤 5:(如有)在 Nebula Graph 中重建索引 -导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在 Nebula Graph 中重新创建并重建索引。详情请参见 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-maxcompute.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-maxcompute.md index 56efb083903..c431e0682ac 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-maxcompute.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-maxcompute.md @@ -1,14 +1,14 @@ -# 导入MaxCompute数据 +# 导入 MaxCompute 数据 -本文以一个示例说明如何使用Exchange将存储在MaxCompute上的数据导入Nebula Graph。 +本文以一个示例说明如何使用 Exchange 将存储在 MaxCompute 上的数据导入 Nebula Graph。 ## 数据集 -本文以[basketballplayer数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip)为例。 +本文以 [basketballplayer 数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip) 为例。 ## 环境配置 -本文示例在MacOS下完成,以下是相关的环境配置信息: +本文示例在 MacOS 下完成,以下是相关的环境配置信息: - 硬件规格: - CPU:1.7 GHz Quad-Core Intel Core i7 @@ -20,33 +20,33 @@ - MaxCompute:阿里云官方版本 -- Nebula Graph:{{nebula.release}}。使用[Docker Compose部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- Nebula Graph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)并获取如下信息: +- 已经 [安装部署 Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - - Graph服务和Meta服务的的IP地址和端口。 + - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有Nebula Graph写权限的用户名和密码。 + - 拥有 Nebula Graph 写权限的用户名和密码。 -- 已经编译Exchange。详情请参见[编译Exchange](../ex-ug-compile.md)。本示例中使用Exchange {{exchange.release}}。 +- 已经编译 Exchange。详情请参见 [编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 -- 已经安装Spark。 +- 已经安装 Spark。 -- 了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。 +- 了解 Nebula Graph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 -- 已经安装并开启Hadoop服务。 +- 已经安装并开启 Hadoop 服务。 ## 操作步骤 -### 步骤 1:在Nebula Graph中创建Schema +### 步骤 1:在 Nebula Graph 中创建 Schema -分析数据,按以下步骤在Nebula Graph中创建Schema: +分析数据,按以下步骤在 Nebula Graph 中创建 Schema: -1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。 +1. 确认 Schema 要素。Nebula Graph 中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -55,7 +55,7 @@ | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 在Nebula Graph中创建一个图空间**basketballplayer**,并创建一个Schema,如下所示。 +2. 在 Nebula Graph 中创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -64,31 +64,31 @@ replica_factor = 1, \ vid_type = FIXED_STRING(30)); - ## 选择图空间basketballplayer + ## 选择图空间 basketballplayer nebula> USE basketballplayer; - ## 创建Tag player + ## 创建 Tag player nebula> CREATE TAG player(name string, age int); - ## 创建Tag team + ## 创建 Tag team nebula> CREATE TAG team(name string); - ## 创建Edge type follow + ## 创建 Edge type follow nebula> CREATE EDGE follow(degree int); - ## 创建Edge type serve + ## 创建 Edge type serve nebula> CREATE EDGE serve(start_year int, end_year int); ``` -更多信息,请参见[快速开始](../../2.quick-start/1.quick-start-workflow.md)。 +更多信息,请参见 [快速开始](../../2.quick-start/1.quick-start-workflow.md)。 ### 步骤 2:修改配置文件 -编译Exchange后,复制`target/classes/application.conf`文件设置MaxCompute数据源相关的配置。在本示例中,复制的文件名为`maxcompute_application.conf`。各个配置项的详细说明请参见[配置说明](../parameter-reference/ex-ug-parameter.md)。 +编译 Exchange 后,复制`target/classes/application.conf`文件设置 MaxCompute 数据源相关的配置。在本示例中,复制的文件名为`maxcompute_application.conf`。各个配置项的详细说明请参见 [配置说明](../parameter-reference/ex-ug-parameter.md)。 ```conf { - # Spark相关配置 + # Spark 相关配置 spark: { app: { name: Nebula Exchange {{exchange.release}} @@ -102,19 +102,19 @@ } } -# Nebula Graph相关配置 +# Nebula Graph 相关配置 nebula: { address:{ - # 以下为Nebula Graph的Graph服务和Meta服务所在机器的IP地址及端口。 + # 以下为 Nebula Graph 的 Graph 服务和 Meta 服务所在机器的 IP 地址及端口。 # 如果有多个地址,格式为 "ip1:port","ip2:port","ip3:port"。 # 不同地址之间以英文逗号 (,) 隔开。 graph:["127.0.0.1:9669"] meta:["127.0.0.1:9559"] } - # 填写的账号必须拥有Nebula Graph相应图空间的写数据权限。 + # 填写的账号必须拥有 Nebula Graph 相应图空间的写数据权限。 user: root pswd: nebula - # 填写Nebula Graph中需要写入数据的图空间名称。 + # 填写 Nebula Graph 中需要写入数据的图空间名称。 space: basketballplayer connection { timeout: 3000 @@ -134,44 +134,44 @@ } # 处理点 tags: [ - # 设置Tag player相关信息 + # 设置 Tag player 相关信息 { name: player type: { - # 指定数据源文件格式,设置为MaxCompute。 + # 指定数据源文件格式,设置为 MaxCompute。 source: maxcompute - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # MaxCompute的表名 + # MaxCompute 的表名 table:player - # MaxCompute的项目名 + # MaxCompute 的项目名 project:project - # MaxCompute服务的odpsUrl和tunnelUrl, + # MaxCompute 服务的 odpsUrl 和 tunnelUrl, # 地址可在 https://help.aliyun.com/document_detail/34951.html 查看。 odpsUrl:"http://service.cn-hangzhou.maxcompute.aliyun.com/api" tunnelUrl:"http://dt.cn-hangzhou.maxcompute.aliyun.com" - # MaxCompute服务的accessKeyId和accessKeySecret。 + # MaxCompute 服务的 accessKeyId 和 accessKeySecret。 accessKeyId:xxx accessKeySecret:xxx - # MaxCompute表的分区描述,该配置可选。 + # MaxCompute 表的分区描述,该配置可选。 partitionSpec:"dt='partition1'" - # 请确保SQL语句中的表名和上方table的值相同,该配置可选。 + # 请确保 SQL 语句中的表名和上方 table 的值相同,该配置可选。 sentence:"select id, name, age, playerid from player where id < 10" - # 在fields里指定player表中的列名称,其对应的value会作为Nebula Graph中指定属性。 - # fields和nebula.fields里的配置必须一一对应。 + # 在 fields 里指定 player 表中的列名称,其对应的 value 会作为 Nebula Graph 中指定属性。 + # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields:[name, age] nebula.fields:[name, age] - # 指定表中某一列数据为Nebula Graph中点VID的来源。 + # 指定表中某一列数据为 Nebula Graph 中点 VID 的来源。 vertex:{ field: playerid } @@ -183,7 +183,7 @@ partition: 32 } - # 设置Tag team相关信息。 + # 设置 Tag team 相关信息。 { name: team type: { @@ -210,53 +210,53 @@ # 处理边数据 edges: [ - # 设置Edge type follow相关信息 + # 设置 Edge type follow 相关信息 { - # Nebula Graph中对应的Edge type名称。 + # Nebula Graph 中对应的 Edge type 名称。 name: follow type:{ - # 指定数据源文件格式,设置为MaxCompute。 + # 指定数据源文件格式,设置为 MaxCompute。 source:maxcompute - # 指定边数据导入Nebula Graph的方式, - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定边数据导入 Nebula Graph 的方式, + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink:client } - # MaxCompute的表名 + # MaxCompute 的表名 table:follow - # MaxCompute的项目名 + # MaxCompute 的项目名 project:project - # MaxCompute服务的odpsUrl和tunnelUrl, + # MaxCompute 服务的 odpsUrl 和 tunnelUrl, # 地址可在 https://help.aliyun.com/document_detail/34951.html 查看。 odpsUrl:"http://service.cn-hangzhou.maxcompute.aliyun.com/api" tunnelUrl:"http://dt.cn-hangzhou.maxcompute.aliyun.com" - # MaxCompute服务的accessKeyId和accessKeySecret。 + # MaxCompute 服务的 accessKeyId 和 accessKeySecret。 accessKeyId:xxx accessKeySecret:xxx - # MaxCompute表的分区描述,该配置可选。 + # MaxCompute 表的分区描述,该配置可选。 partitionSpec:"dt='partition1'" - # 请确保SQL语句中的表名和上方table的值相同,该配置可选。 + # 请确保 SQL 语句中的表名和上方 table 的值相同,该配置可选。 sentence:"select * from follow" - # 在fields里指定follow表中的列名称,其对应的value会作为Nebula Graph中指定属性。 - # fields和nebula.fields里的配置必须一一对应。 + # 在 fields 里指定 follow 表中的列名称,其对应的 value 会作为 Nebula Graph 中指定属性。 + # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields:[degree] nebula.fields:[degree] - # 在source里,将follow表中某一列作为边的起始点数据源。 + # 在 source 里,将 follow 表中某一列作为边的起始点数据源。 source:{ field: src_player } - # 在target里,将follow表中某一列作为边的目的点数据源。 + # 在 target 里,将 follow 表中某一列作为边的目的点数据源。 target:{ field: dst_player } @@ -268,7 +268,7 @@ batch:10 } - # 设置Edge type serve相关信息 + # 设置 Edge type serve 相关信息 { name: serve type:{ @@ -298,9 +298,9 @@ } ``` -### 步骤 3:向Nebula Graph导入数据 +### 步骤 3:向 Nebula Graph 导入数据 -运行如下命令将MaxCompute数据导入到Nebula Graph中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 MaxCompute 数据导入到 Nebula Graph 中。关于参数的说明,请参见 [导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -308,7 +308,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchan !!! note - JAR包有两种获取方式:[自行编译](../ex-ug-compile.md)或者从maven仓库下载。 + JAR 包有两种获取方式:[自行编译](../ex-ug-compile.md) 或者从 maven 仓库下载。 示例: @@ -320,14 +320,14 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 4:(可选)验证数据 -用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在 Nebula Graph 客户端(例如 Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql GO FROM "player100" OVER follow; ``` -用户也可以使用命令[`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md)查看统计数据。 +用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 5:(如有)在Nebula Graph中重建索引 +### 步骤 5:(如有)在 Nebula Graph 中重建索引 -导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在 Nebula Graph 中重新创建并重建索引。详情请参见 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-mysql.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-mysql.md index 1bb6083db9a..72aec052500 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-mysql.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-mysql.md @@ -1,12 +1,12 @@ -# 导入MySQL数据 +# 导入 MySQL 数据 -本文以一个示例说明如何使用Exchange将存储在MySQL上的数据导入Nebula Graph。 +本文以一个示例说明如何使用 Exchange 将存储在 MySQL 上的数据导入 Nebula Graph。 ## 数据集 -本文以[basketballplayer数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip)为例。 +本文以 [basketballplayer 数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip) 为例。 -在本示例中,该数据集已经存入MySQL中名为`basketball`的数据库中,以`player`、`team`、`follow`和`serve`四个表存储了所有点和边的信息。以下为各个表的结构。 +在本示例中,该数据集已经存入 MySQL 中名为`basketball`的数据库中,以`player`、`team`、`follow`和`serve`四个表存储了所有点和边的信息。以下为各个表的结构。 ```sql mysql> desc player; @@ -48,7 +48,7 @@ mysql> desc serve; ## 环境配置 -本文示例在MacOS下完成,以下是相关的环境配置信息: +本文示例在 MacOS 下完成,以下是相关的环境配置信息: - 硬件规格: - CPU:1.7 GHz Quad-Core Intel Core i7 @@ -60,33 +60,33 @@ mysql> desc serve; - MySQL: 8.0.23 -- Nebula Graph:{{nebula.release}}。使用[Docker Compose部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- Nebula Graph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)并获取如下信息: +- 已经 [安装部署 Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - - Graph服务和Meta服务的的IP地址和端口。 + - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有Nebula Graph写权限的用户名和密码。 + - 拥有 Nebula Graph 写权限的用户名和密码。 -- 已经编译Exchange。详情请参见[编译Exchange](../ex-ug-compile.md)。本示例中使用Exchange {{exchange.release}}。 +- 已经编译 Exchange。详情请参见 [编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 -- 已经安装Spark。 +- 已经安装 Spark。 -- 了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。 +- 了解 Nebula Graph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 -- 已经安装并开启Hadoop服务。 +- 已经安装并开启 Hadoop 服务。 ## 操作步骤 -### 步骤 1:在Nebula Graph中创建Schema +### 步骤 1:在 Nebula Graph 中创建 Schema -分析数据,按以下步骤在Nebula Graph中创建Schema: +分析数据,按以下步骤在 Nebula Graph 中创建 Schema: -1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。 +1. 确认 Schema 要素。Nebula Graph 中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -95,7 +95,7 @@ mysql> desc serve; | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 在Nebula Graph中创建一个图空间**basketballplayer**,并创建一个Schema,如下所示。 +2. 在 Nebula Graph 中创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -104,31 +104,31 @@ mysql> desc serve; replica_factor = 1, \ vid_type = FIXED_STRING(30)); - ## 选择图空间basketballplayer + ## 选择图空间 basketballplayer nebula> USE basketballplayer; - ## 创建Tag player + ## 创建 Tag player nebula> CREATE TAG player(name string, age int); - ## 创建Tag team + ## 创建 Tag team nebula> CREATE TAG team(name string); - ## 创建Edge type follow + ## 创建 Edge type follow nebula> CREATE EDGE follow(degree int); - ## 创建Edge type serve + ## 创建 Edge type serve nebula> CREATE EDGE serve(start_year int, end_year int); ``` -更多信息,请参见[快速开始](../../2.quick-start/1.quick-start-workflow.md)。 +更多信息,请参见 [快速开始](../../2.quick-start/1.quick-start-workflow.md)。 ### 步骤 2:修改配置文件 -编译Exchange后,复制`target/classes/application.conf`文件设置MySQL数据源相关的配置。在本示例中,复制的文件名为`mysql_application.conf`。各个配置项的详细说明请参见[配置说明](../parameter-reference/ex-ug-parameter.md)。 +编译 Exchange 后,复制`target/classes/application.conf`文件设置 MySQL 数据源相关的配置。在本示例中,复制的文件名为`mysql_application.conf`。各个配置项的详细说明请参见 [配置说明](../parameter-reference/ex-ug-parameter.md)。 ```conf { - # Spark相关配置 + # Spark 相关配置 spark: { app: { name: Nebula Exchange {{exchange.release}} @@ -142,19 +142,19 @@ mysql> desc serve; } } -# Nebula Graph相关配置 +# Nebula Graph 相关配置 nebula: { address:{ - # 以下为Nebula Graph的Graph服务和Meta服务所在机器的IP地址及端口。 + # 以下为 Nebula Graph 的 Graph 服务和 Meta 服务所在机器的 IP 地址及端口。 # 如果有多个地址,格式为 "ip1:port","ip2:port","ip3:port"。 # 不同地址之间以英文逗号 (,) 隔开。 graph:["127.0.0.1:9669"] meta:["127.0.0.1:9559"] } - # 填写的账号必须拥有Nebula Graph相应图空间的写数据权限。 + # 填写的账号必须拥有 Nebula Graph 相应图空间的写数据权限。 user: root pswd: nebula - # 填写Nebula Graph中需要写入数据的图空间名称。 + # 填写 Nebula Graph 中需要写入数据的图空间名称。 space: basketballplayer connection { timeout: 3000 @@ -174,14 +174,14 @@ mysql> desc serve; } # 处理点 tags: [ - # 设置Tag player相关信息。 + # 设置 Tag player 相关信息。 { - # Nebula Graph中对应的Tag名称。 + # Nebula Graph 中对应的 Tag 名称。 name: player type: { - # 指定数据源文件格式,设置为MySQL。 + # 指定数据源文件格式,设置为 MySQL。 source: mysql - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } @@ -193,13 +193,13 @@ mysql> desc serve; password:"123456" sentence:"select playerid, age, name from basketball.player order by playerid;" - # 在fields里指定player表中的列名称,其对应的value会作为Nebula Graph中指定属性。 - # fields和nebula.fields里的配置必须一一对应。 + # 在 fields 里指定 player 表中的列名称,其对应的 value 会作为 Nebula Graph 中指定属性。 + # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [age,name] nebula.fields: [age,name] - # 指定表中某一列数据为Nebula Graph中点VID的来源。 + # 指定表中某一列数据为 Nebula Graph 中点 VID 的来源。 vertex: { field:playerid } @@ -210,7 +210,7 @@ mysql> desc serve; # Spark 分区数量 partition: 32 } - # 设置Tag team相关信息。 + # 设置 Tag team 相关信息。 { name: team type: { @@ -239,17 +239,17 @@ mysql> desc serve; # 处理边数据 edges: [ - # 设置Edge type follow相关信息 + # 设置 Edge type follow 相关信息 { - # Nebula Graph中对应的Edge type名称。 + # Nebula Graph 中对应的 Edge type 名称。 name: follow type: { - # 指定数据源文件格式,设置为MySQL。 + # 指定数据源文件格式,设置为 MySQL。 source: mysql - # 指定边数据导入Nebula Graph的方式, - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定边数据导入 Nebula Graph 的方式, + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } @@ -261,14 +261,14 @@ mysql> desc serve; password:"123456" sentence:"select src_player,dst_player,degree from basketball.follow order by src_player;" - # 在fields里指定follow表中的列名称,其对应的value会作为Nebula Graph中指定属性。 - # fields和nebula.fields里的配置必须一一对应。 + # 在 fields 里指定 follow 表中的列名称,其对应的 value 会作为 Nebula Graph 中指定属性。 + # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [degree] nebula.fields: [degree] - # 在source里,将follow表中某一列作为边的起始点数据源。 - # 在target里,将follow表中某一列作为边的目的点数据源。 + # 在 source 里,将 follow 表中某一列作为边的起始点数据源。 + # 在 target 里,将 follow 表中某一列作为边的目的点数据源。 source: { field: src_player } @@ -284,7 +284,7 @@ mysql> desc serve; partition: 32 } - # 设置Edge type serve相关信息 + # 设置 Edge type serve 相关信息 { name: serve type: { @@ -314,9 +314,9 @@ mysql> desc serve; } ``` -### 步骤 3:向Nebula Graph导入数据 +### 步骤 3:向 Nebula Graph 导入数据 -运行如下命令将MySQL数据导入到Nebula Graph中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 MySQL 数据导入到 Nebula Graph 中。关于参数的说明,请参见 [导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -324,7 +324,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchan !!! note - JAR包有两种获取方式:[自行编译](../ex-ug-compile.md)或者从maven仓库下载。 + JAR 包有两种获取方式:[自行编译](../ex-ug-compile.md) 或者从 maven 仓库下载。 示例: @@ -336,14 +336,14 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 4:(可选)验证数据 -用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在 Nebula Graph 客户端(例如 Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql GO FROM "player100" OVER follow; ``` -用户也可以使用命令[`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md)查看统计数据。 +用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 5:(如有)在Nebula Graph中重建索引 +### 步骤 5:(如有)在 Nebula Graph 中重建索引 -导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在 Nebula Graph 中重新创建并重建索引。详情请参见 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-neo4j.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-neo4j.md index b27680b8a0b..08e121652c3 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-neo4j.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-neo4j.md @@ -1,22 +1,22 @@ -# 导入Neo4j数据 +# 导入 Neo4j 数据 -本文以一个示例说明如何使用Exchange将存储在Neo4j的数据导入Nebula Graph。 +本文以一个示例说明如何使用 Exchange 将存储在 Neo4j 的数据导入 Nebula Graph。 ## 实现方法 -Exchange使用**Neo4j Driver 4.0.1**实现对Neo4j数据的读取。执行批量导出之前,用户需要在配置文件中写入针对标签(label)和关系类型(Relationship Type)自动执行的Cypher语句,以及Spark分区数,提高数据导出性能。 +Exchange 使用** Neo4j Driver 4.0.1 **实现对 Neo4j 数据的读取。执行批量导出之前,用户需要在配置文件中写入针对标签(label)和关系类型(Relationship Type)自动执行的 Cypher 语句,以及 Spark 分区数,提高数据导出性能。 -Exchange读取Neo4j数据时需要完成以下工作: +Exchange 读取 Neo4j 数据时需要完成以下工作: -1. Exchange中的Reader会将配置文件中`exec`部分的Cypher`RETURN`语句后面的语句替换为`COUNT(*)`,并执行这个语句,从而获取数据总量,再根据Spark分区数量计算每个分区的起始偏移量和大小。 +1. Exchange 中的 Reader 会将配置文件中`exec`部分的 Cypher`RETURN`语句后面的语句替换为`COUNT(*)`,并执行这个语句,从而获取数据总量,再根据 Spark 分区数量计算每个分区的起始偏移量和大小。 -2. (可选)如果用户配置了`check_point_path`目录,Reader会读取目录中的文件。如果处于续传状态,Reader会计算每个Spark分区应该有的偏移量和大小。 +2. (可选)如果用户配置了`check_point_path`目录,Reader 会读取目录中的文件。如果处于续传状态,Reader 会计算每个 Spark 分区应该有的偏移量和大小。 -3. 在每个Spark分区里,Exchange中的Reader会在Cypher语句后面添加不同的`SKIP`和`LIMIT`语句,调用Neo4j Driver并行执行,将数据分布到不同的Spark分区中。 +3. 在每个 Spark 分区里,Exchange 中的 Reader 会在 Cypher 语句后面添加不同的`SKIP`和`LIMIT`语句,调用 Neo4j Driver 并行执行,将数据分布到不同的 Spark 分区中。 -4. Reader最后将返回的数据处理成DataFrame。 +4. Reader 最后将返回的数据处理成 DataFrame。 -至此,Exchange即完成了对Neo4j数据的导出。之后,数据被并行写入Nebula Graph数据库中。 +至此,Exchange 即完成了对 Neo4j 数据的导出。之后,数据被并行写入 Nebula Graph 数据库中。 整个过程如下图所示。 @@ -24,11 +24,11 @@ Exchange读取Neo4j数据时需要完成以下工作: ## 数据集 -本文以[basketballplayer数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip)为例。 +本文以 [basketballplayer 数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip) 为例。 ### 环境配置 -本文示例在MacOS下完成,以下是相关的环境配置信息: +本文示例在 MacOS 下完成,以下是相关的环境配置信息: - 硬件规格: - CPU:Intel(R) Xeon(R) CPU E5-2697 v3 @ 2.60GHz @@ -41,31 +41,31 @@ Exchange读取Neo4j数据时需要完成以下工作: - Neo4j:3.5.20 Community Edition -- Nebula Graph:{{nebula.release}}。使用[Docker Compose部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- Nebula Graph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)并获取如下信息: +- 已经 [安装部署 Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - - Graph服务和Meta服务的的IP地址和端口。 + - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有Nebula Graph写权限的用户名和密码。 + - 拥有 Nebula Graph 写权限的用户名和密码。 -- 已经编译Exchange。详情请参见[编译Exchange](../ex-ug-compile.md)。本示例中使用Exchange {{exchange.release}}。 +- 已经编译 Exchange。详情请参见 [编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 -- 已经安装Spark。 +- 已经安装 Spark。 -- 了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。 +- 了解 Nebula Graph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 ## 操作步骤 -### 步骤 1:在Nebula Graph中创建Schema +### 步骤 1:在 Nebula Graph 中创建 Schema -分析数据,按以下步骤在Nebula Graph中创建Schema: +分析数据,按以下步骤在 Nebula Graph 中创建 Schema: -1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。 +1. 确认 Schema 要素。Nebula Graph 中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -74,7 +74,7 @@ Exchange读取Neo4j数据时需要完成以下工作: | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 使用Nebula Console创建一个图空间**basketballplayer**,并创建一个Schema,如下所示。 +2. 使用 Nebula Console 创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -83,35 +83,35 @@ Exchange读取Neo4j数据时需要完成以下工作: replica_factor = 1, \ vid_type = FIXED_STRING(30)); - ## 选择图空间basketballplayer + ## 选择图空间 basketballplayer nebula> USE basketballplayer; - ## 创建Tag player + ## 创建 Tag player nebula> CREATE TAG player(name string, age int); - ## 创建Tag team + ## 创建 Tag team nebula> CREATE TAG team(name string); - ## 创建Edge type follow + ## 创建 Edge type follow nebula> CREATE EDGE follow(degree int); - ## 创建Edge type serve + ## 创建 Edge type serve nebula> CREATE EDGE serve(start_year int, end_year int); ``` -更多信息,请参见[快速开始](../../2.quick-start/1.quick-start-workflow.md)。 +更多信息,请参见 [快速开始](../../2.quick-start/1.quick-start-workflow.md)。 ### 步骤 2:配置源数据 -为了提高Neo4j数据的导出速度,在Neo4j数据库中为相应属性创建索引。详细信息,参考[Neo4j用户手册](https://neo4j.com/docs/cypher-manual/current/query-tuning/indexes/)。 +为了提高 Neo4j 数据的导出速度,在 Neo4j 数据库中为相应属性创建索引。详细信息,参考 [Neo4j 用户手册](https://neo4j.com/docs/cypher-manual/current/query-tuning/indexes/)。 ### 步骤 3:修改配置文件 -编译Exchange后,复制`target/classes/application.conf`文件设置数据源相关的配置。在本示例中,复制的文件名为`neo4j_application.conf`。各个配置项的详细说明请参见[配置说明](../parameter-reference/ex-ug-parameter.md)。 +编译 Exchange 后,复制`target/classes/application.conf`文件设置数据源相关的配置。在本示例中,复制的文件名为`neo4j_application.conf`。各个配置项的详细说明请参见 [配置说明](../parameter-reference/ex-ug-parameter.md)。 ```conf { - # Spark相关配置 + # Spark 相关配置 spark: { app: { name: Nebula Exchange {{exchange.release}} @@ -131,8 +131,7 @@ Exchange读取Neo4j数据时需要完成以下工作: } } - - # Nebula Graph相关配置 + # Nebula Graph 相关配置 nebula: { address:{ graph:["127.0.0.1:9669"] @@ -165,8 +164,7 @@ Exchange读取Neo4j数据时需要完成以下工作: # 处理点 tags: [ - - # 设置Tag player相关信息。 + # 设置 Tag player 相关信息。 { name: player type: { @@ -187,7 +185,7 @@ Exchange读取Neo4j数据时需要完成以下工作: batch: 1000 check_point_path: /tmp/test } - # 设置Tag team相关信息。 + # 设置 Tag team 相关信息。 { name: team type: { @@ -212,7 +210,7 @@ Exchange读取Neo4j数据时需要完成以下工作: # 处理边数据 edges: [ - # 设置Edge type follow相关信息 + # 设置 Edge type follow 相关信息 { name: follow type: { @@ -237,7 +235,7 @@ Exchange读取Neo4j数据时需要完成以下工作: batch: 1000 check_point_path: /tmp/test } - # 设置Edge type serve相关信息 + # 设置 Edge type serve 相关信息 { name: serve type: { @@ -266,25 +264,25 @@ Exchange读取Neo4j数据时需要完成以下工作: } ``` -#### exec配置说明 +#### exec 配置说明 -在配置`tags.exec`或者`edges.exec`参数时,需要填写Cypher查询语句。为了保证每次查询结果排序一致,并且为了防止在导入时丢失数据,强烈建议在Cypher查询语句中加入`ORDER BY`子句,同时,为了提高数据导入效率,最好选取有索引的属性作为排序的属性。如果没有索引,用户也可以观察默认的排序,选择合适的属性用于排序,以提高效率。如果默认的排序找不到规律,用户可以根据点或关系的ID进行排序,并且将`partition`设置为一个尽量小的值,减轻Neo4j的排序压力。 +在配置`tags.exec`或者`edges.exec`参数时,需要填写 Cypher 查询语句。为了保证每次查询结果排序一致,并且为了防止在导入时丢失数据,强烈建议在 Cypher 查询语句中加入`ORDER BY`子句,同时,为了提高数据导入效率,最好选取有索引的属性作为排序的属性。如果没有索引,用户也可以观察默认的排序,选择合适的属性用于排序,以提高效率。如果默认的排序找不到规律,用户可以根据点或关系的 ID 进行排序,并且将`partition`设置为一个尽量小的值,减轻 Neo4j 的排序压力。 >**说明**:使用`ORDER BY`子句会延长数据导入的时间。 -另外,Exchange需要在不同Spark分区执行不同`SKIP`和`LIMIT`的Cypher语句,所以在`tags.exec`和`edges.exec`对应的Cypher语句中不能含有`SKIP`和`LIMIT`子句。 +另外,Exchange 需要在不同 Spark 分区执行不同`SKIP`和`LIMIT`的 Cypher 语句,所以在`tags.exec`和`edges.exec`对应的 Cypher 语句中不能含有`SKIP`和`LIMIT`子句。 -#### tags.vertex或edges.vertex配置说明 +#### tags.vertex 或 edges.vertex 配置说明 -Nebula Graph在创建点和边时会将ID作为唯一主键,如果主键已存在则会覆盖该主键中的数据。所以,假如将某个Neo4j属性值作为Nebula Graph的ID,而这个属性值在Neo4j中是有重复的,就会导致重复ID,它们对应的数据有且只有一条会存入Nebula Graph中,其它的则会被覆盖掉。由于数据导入过程是并发地往Nebula Graph中写数据,最终保存的数据并不能保证是Neo4j中最新的数据。 +Nebula Graph 在创建点和边时会将 ID 作为唯一主键,如果主键已存在则会覆盖该主键中的数据。所以,假如将某个 Neo4j 属性值作为 Nebula Graph 的 ID,而这个属性值在 Neo4j 中是有重复的,就会导致重复 ID,它们对应的数据有且只有一条会存入 Nebula Graph 中,其它的则会被覆盖掉。由于数据导入过程是并发地往 Nebula Graph 中写数据,最终保存的数据并不能保证是 Neo4j 中最新的数据。 -#### check_point_path配置说明 +#### check_point_path 配置说明 如果启用了断点续传功能,为避免数据丢失,在断点和续传之间,数据库不应该改变状态,例如不能添加数据或删除数据,同时,不能更改`partition`数量配置。 -### 步骤 4:向Nebula Graph导入数据 +### 步骤 4:向 Nebula Graph 导入数据 -运行如下命令将文件数据导入到Nebula Graph中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将文件数据导入到 Nebula Graph 中。关于参数的说明,请参见 [导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -292,7 +290,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchan !!! note - JAR包有两种获取方式:[自行编译](../ex-ug-compile.md)或者从maven仓库下载。 + JAR 包有两种获取方式:[自行编译](../ex-ug-compile.md) 或者从 maven 仓库下载。 示例: @@ -304,14 +302,14 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 5:(可选)验证数据 -用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在 Nebula Graph 客户端(例如 Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql GO FROM "player100" OVER follow; ``` -用户也可以使用命令[`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md)查看统计数据。 +用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 6:(如有)在Nebula Graph中重建索引 +### 步骤 6:(如有)在 Nebula Graph 中重建索引 -导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在 Nebula Graph 中重新创建并重建索引。详情请参见 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-orc.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-orc.md index e4e41a53624..86266ea396c 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-orc.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-orc.md @@ -1,16 +1,16 @@ -# 导入ORC文件数据 +# 导入 ORC 文件数据 -本文以一个示例说明如何使用Exchange将存储在HDFS或本地的ORC文件数据导入Nebula Graph。 +本文以一个示例说明如何使用 Exchange 将存储在 HDFS 或本地的 ORC 文件数据导入 Nebula Graph。 -如果要向Nebula Graph导入本地ORC文件,请参见[Nebula Importer](https://github.com/vesoft-inc/nebula-importer "Click to go to GitHub")。 +如果要向 Nebula Graph 导入本地 ORC 文件,请参见 [Nebula Importer](https://github.com/vesoft-inc/nebula-importer "Click to go to GitHub")。 ## 数据集 -本文以[basketballplayer数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip)为例。 +本文以 [basketballplayer 数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip) 为例。 ## 环境配置 -本文示例在MacOS下完成,以下是相关的环境配置信息: +本文示例在 MacOS 下完成,以下是相关的环境配置信息: - 硬件规格: - CPU:1.7 GHz Quad-Core Intel Core i7 @@ -20,35 +20,35 @@ - Hadoop:2.9.2 伪分布式部署 -- Nebula Graph:{{nebula.release}}。使用[Docker Compose部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- Nebula Graph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)并获取如下信息: +- 已经 [安装部署 Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - - Graph服务和Meta服务的的IP地址和端口。 + - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有Nebula Graph写权限的用户名和密码。 + - 拥有 Nebula Graph 写权限的用户名和密码。 -- 已经编译Exchange。详情请参见[编译Exchange](../ex-ug-compile.md)。本示例中使用Exchange {{exchange.release}}。 +- 已经编译 Exchange。详情请参见 [编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 -- 已经安装Spark。 +- 已经安装 Spark。 -- 了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。 +- 了解 Nebula Graph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 -- 如果文件存储在HDFS上,需要确认Hadoop服务运行正常。 +- 如果文件存储在 HDFS 上,需要确认 Hadoop 服务运行正常。 -- 如果文件存储在本地且Nebula Graph是集群架构,需要在集群每台机器本地相同目录下放置文件。 +- 如果文件存储在本地且 Nebula Graph 是集群架构,需要在集群每台机器本地相同目录下放置文件。 ## 操作步骤 -### 步骤 1:在Nebula Graph中创建Schema +### 步骤 1:在 Nebula Graph 中创建 Schema -分析ORC文件中的数据,按以下步骤在Nebula Graph中创建Schema: +分析 ORC 文件中的数据,按以下步骤在 Nebula Graph 中创建 Schema: -1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。 +1. 确认 Schema 要素。Nebula Graph 中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -57,7 +57,7 @@ | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 使用Nebula Console创建一个图空间**basketballplayer**,并创建一个Schema,如下所示。 +2. 使用 Nebula Console 创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -66,39 +66,39 @@ replica_factor = 1, \ vid_type = FIXED_STRING(30)); - ## 选择图空间basketballplayer + ## 选择图空间 basketballplayer nebula> USE basketballplayer; - ## 创建Tag player + ## 创建 Tag player nebula> CREATE TAG player(name string, age int); - ## 创建Tag team + ## 创建 Tag team nebula> CREATE TAG team(name string); - ## 创建Edge type follow + ## 创建 Edge type follow nebula> CREATE EDGE follow(degree int); - ## 创建Edge type serve + ## 创建 Edge type serve nebula> CREATE EDGE serve(start_year int, end_year int); ``` -更多信息,请参见[快速开始](../../2.quick-start/1.quick-start-workflow.md)。 +更多信息,请参见 [快速开始](../../2.quick-start/1.quick-start-workflow.md)。 -### 步骤 2:处理ORC文件 +### 步骤 2:处理 ORC 文件 确认以下信息: -1. 处理ORC文件以满足Schema的要求。 +1. 处理 ORC 文件以满足 Schema 的要求。 -2. 获取ORC文件存储路径。 +2. 获取 ORC 文件存储路径。 ### 步骤 3:修改配置文件 -编译Exchange后,复制`target/classes/application.conf`文件设置ORC数据源相关的配置。在本示例中,复制的文件名为`orc_application.conf`。各个配置项的详细说明请参见[配置说明](../parameter-reference/ex-ug-parameter.md)。 +编译 Exchange 后,复制`target/classes/application.conf`文件设置 ORC 数据源相关的配置。在本示例中,复制的文件名为`orc_application.conf`。各个配置项的详细说明请参见 [配置说明](../parameter-reference/ex-ug-parameter.md)。 ```conf { - # Spark相关配置 + # Spark 相关配置 spark: { app: { name: Nebula Exchange {{exchange.release}} @@ -116,17 +116,17 @@ } } - # Nebula Graph相关配置 + # Nebula Graph 相关配置 nebula: { address:{ - # 指定Graph服务和所有Meta服务的IP地址和端口。 + # 指定 Graph 服务和所有 Meta 服务的 IP 地址和端口。 # 如果有多台服务器,地址之间用英文逗号(,)分隔。 - # 格式: "ip1:port","ip2:port","ip3:port" + # 格式:"ip1:port","ip2:port","ip3:port" graph:["127.0.0.1:9669"] meta:["127.0.0.1:9559"] } - # 指定拥有Nebula Graph写权限的用户名和密码。 + # 指定拥有 Nebula Graph 写权限的用户名和密码。 user: root pswd: nebula @@ -151,118 +151,116 @@ # 处理点 tags: [ - # 设置Tag player相关信息。 + # 设置 Tag player 相关信息。 { - # 指定Nebula Graph中定义的Tag名称。 + # 指定 Nebula Graph 中定义的 Tag 名称。 name: player type: { - # 指定数据源,使用ORC。 + # 指定数据源,使用 ORC。 source: orc - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定ORC文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.orc"。 + # 指定 ORC 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.orc"。 path: "hdfs://192.168.*.*:9000/data/vertex_player.orc" - # 在fields里指定ORC文件中key名称,其对应的value会作为Nebula Graph中指定属性的数据源。 + # 在 fields 里指定 ORC 文件中 key 名称,其对应的 value 会作为 Nebula Graph 中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [age,name] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [age, name] - # 指定一个列作为VID的源。 - # vertex的值必须与ORC文件中的字段保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # 指定一个列作为 VID 的源。 + # vertex 的值必须与 ORC 文件中的字段保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:id } - # 指定单批次写入Nebula Graph的最大点数量。 + # 指定单批次写入 Nebula Graph 的最大点数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 设置Tag team相关信息。 + # 设置 Tag team 相关信息。 { - # 指定Nebula Graph中定义的Tag名称。 + # 指定 Nebula Graph 中定义的 Tag 名称。 name: team type: { - # 指定数据源,使用ORC。 + # 指定数据源,使用 ORC。 source: orc - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定ORC文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.orc"。 + # 指定 ORC 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.orc"。 path: "hdfs://192.168.*.*:9000/data/vertex_team.orc" - # 在fields里指定ORC文件中key名称,其对应的value会作为Nebula Graph中指定属性的数据源。 + # 在 fields 里指定 ORC 文件中 key 名称,其对应的 value 会作为 Nebula Graph 中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [name] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [name] - # 指定一个列作为VID的源。 - # vertex的值必须与ORC文件中的字段保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # 指定一个列作为 VID 的源。 + # vertex 的值必须与 ORC 文件中的字段保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:id } - - # 指定单批次写入Nebula Graph的最大点数量。 + # 指定单批次写入 Nebula Graph 的最大点数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 如果需要添加更多点,请参考前面的配置进行添加。 ] # 处理边 edges: [ - # 设置Edge type follow相关信息。 + # 设置 Edge type follow 相关信息。 { - # 指定Nebula Graph中定义的Edge type名称。 + # 指定 Nebula Graph 中定义的 Edge type 名称。 name: follow type: { - # 指定数据源,使用ORC。 + # 指定数据源,使用 ORC。 source: orc - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定ORC文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.orc"。 + # 指定 ORC 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.orc"。 path: "hdfs://192.168.*.*:9000/data/edge_follow.orc" - # 在fields里指定ORC文件中key名称,其对应的value会作为Nebula Graph中指定属性的数据源。 + # 在 fields 里指定 ORC 文件中 key 名称,其对应的 value 会作为 Nebula Graph 中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [degree] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [degree] # 指定一个列作为起始点和目的点的源。 - # vertex的值必须与ORC文件中的字段保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # vertex 的值必须与 ORC 文件中的字段保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: src } @@ -270,45 +268,44 @@ field: dst } - - # 指定一个列作为rank的源(可选)。 + # 指定一个列作为 rank 的源(可选)。 #ranking: rank - # 指定单批次写入Nebula Graph的最大边数量。 + # 指定单批次写入 Nebula Graph 的最大边数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 设置Edge type serve相关信息。 + # 设置 Edge type serve 相关信息。 { - # 指定Nebula Graph中定义的Edge type名称。 + # 指定 Nebula Graph 中定义的 Edge type 名称。 name: serve type: { - # 指定数据源,使用ORC。 + # 指定数据源,使用 ORC。 source: orc - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定ORC文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.orc"。 + # 指定 ORC 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.orc"。 path: "hdfs://192.168.*.*:9000/data/edge_serve.orc" - # 在fields里指定ORC文件中key名称,其对应的value会作为Nebula Graph中指定属性的数据源。 + # 在 fields 里指定 ORC 文件中 key 名称,其对应的 value 会作为 Nebula Graph 中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [start_year,end_year] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [start_year, end_year] # 指定一个列作为起始点和目的点的源。 - # vertex的值必须与ORC文件中的字段保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # vertex 的值必须与 ORC 文件中的字段保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: src } @@ -316,15 +313,13 @@ field: dst } - - # 指定一个列作为rank的源(可选)。 + # 指定一个列作为 rank 的源(可选)。 #ranking: _c5 - - # 指定单批次写入Nebula Graph的最大边数量。 + # 指定单批次写入 Nebula Graph 的最大边数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } @@ -333,9 +328,9 @@ } ``` -### 步骤 4:向Nebula Graph导入数据 +### 步骤 4:向 Nebula Graph 导入数据 -运行如下命令将ORC文件数据导入到Nebula Graph中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 ORC 文件数据导入到 Nebula Graph 中。关于参数的说明,请参见 [导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -343,7 +338,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchan !!! note - JAR包有两种获取方式:[自行编译](../ex-ug-compile.md)或者从maven仓库下载。 + JAR 包有两种获取方式:[自行编译](../ex-ug-compile.md) 或者从 maven 仓库下载。 示例: @@ -355,14 +350,14 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 5:(可选)验证数据 -用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在 Nebula Graph 客户端(例如 Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql GO FROM "player100" OVER follow; ``` -用户也可以使用命令[`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md)查看统计数据。 +用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 6:(如有)在Nebula Graph中重建索引 +### 步骤 6:(如有)在 Nebula Graph 中重建索引 -导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在 Nebula Graph 中重新创建并重建索引。详情请参见 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-parquet.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-parquet.md index bd8b577aa7b..cff78c5cb0f 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-parquet.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-parquet.md @@ -1,16 +1,16 @@ -# 导入Parquet文件数据 +# 导入 Parquet 文件数据 -本文以一个示例说明如何使用Exchange将存储在HDFS或本地的Parquet文件数据导入Nebula Graph。 +本文以一个示例说明如何使用 Exchange 将存储在 HDFS 或本地的 Parquet 文件数据导入 Nebula Graph。 -如果要向Nebula Graph导入本地Parquet文件,请参见[Nebula Importer](https://github.com/vesoft-inc/nebula-importer "Click to go to GitHub")。 +如果要向 Nebula Graph 导入本地 Parquet 文件,请参见 [Nebula Importer](https://github.com/vesoft-inc/nebula-importer "Click to go to GitHub")。 ## 数据集 -本文以[basketballplayer数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip)为例。 +本文以 [basketballplayer 数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip) 为例。 ## 环境配置 -本文示例在MacOS下完成,以下是相关的环境配置信息: +本文示例在 MacOS 下完成,以下是相关的环境配置信息: - 硬件规格: - CPU:1.7 GHz Quad-Core Intel Core i7 @@ -20,35 +20,35 @@ - Hadoop:2.9.2 伪分布式部署 -- Nebula Graph:{{nebula.release}}。使用[Docker Compose部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- Nebula Graph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)并获取如下信息: +- 已经 [安装部署 Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - - Graph服务和Meta服务的的IP地址和端口。 + - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有Nebula Graph写权限的用户名和密码。 + - 拥有 Nebula Graph 写权限的用户名和密码。 -- 已经编译Exchange。详情请参见[编译Exchange](../ex-ug-compile.md)。本示例中使用Exchange {{exchange.release}}。 +- 已经编译 Exchange。详情请参见 [编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 -- 已经安装Spark。 +- 已经安装 Spark。 -- 了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。 +- 了解 Nebula Graph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 -- 如果文件存储在HDFS上,需要确认Hadoop服务运行正常。 +- 如果文件存储在 HDFS 上,需要确认 Hadoop 服务运行正常。 -- 如果文件存储在本地且Nebula Graph是集群架构,需要在集群每台机器本地相同目录下放置文件。 +- 如果文件存储在本地且 Nebula Graph 是集群架构,需要在集群每台机器本地相同目录下放置文件。 ## 操作步骤 -### 步骤 1:在Nebula Graph中创建Schema +### 步骤 1:在 Nebula Graph 中创建 Schema -分析Parquet文件中的数据,按以下步骤在Nebula Graph中创建Schema: +分析 Parquet 文件中的数据,按以下步骤在 Nebula Graph 中创建 Schema: -1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。 +1. 确认 Schema 要素。Nebula Graph 中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -57,7 +57,7 @@ | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 使用Nebula Console创建一个图空间**basketballplayer**,并创建一个Schema,如下所示。 +2. 使用 Nebula Console 创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -66,39 +66,39 @@ replica_factor = 1, \ vid_type = FIXED_STRING(30)); - ## 选择图空间basketballplayer + ## 选择图空间 basketballplayer nebula> USE basketballplayer; - ## 创建Tag player + ## 创建 Tag player nebula> CREATE TAG player(name string, age int); - ## 创建Tag team + ## 创建 Tag team nebula> CREATE TAG team(name string); - ## 创建Edge type follow + ## 创建 Edge type follow nebula> CREATE EDGE follow(degree int); - ## 创建Edge type serve + ## 创建 Edge type serve nebula> CREATE EDGE serve(start_year int, end_year int); ``` -更多信息,请参见[快速开始](../../2.quick-start/1.quick-start-workflow.md)。 +更多信息,请参见 [快速开始](../../2.quick-start/1.quick-start-workflow.md)。 -### 步骤 2:处理Parquet文件 +### 步骤 2:处理 Parquet 文件 确认以下信息: -1. 处理Parquet文件以满足Schema的要求。 +1. 处理 Parquet 文件以满足 Schema 的要求。 -2. 获取Parquet文件存储路径。 +2. 获取 Parquet 文件存储路径。 ### 步骤 3:修改配置文件 -编译Exchange后,复制`target/classes/application.conf`文件设置Parquet数据源相关的配置。在本示例中,复制的文件名为`parquet_application.conf`。各个配置项的详细说明请参见[配置说明](../parameter-reference/ex-ug-parameter.md)。 +编译 Exchange 后,复制`target/classes/application.conf`文件设置 Parquet 数据源相关的配置。在本示例中,复制的文件名为`parquet_application.conf`。各个配置项的详细说明请参见 [配置说明](../parameter-reference/ex-ug-parameter.md)。 ```conf { - # Spark相关配置 + # Spark 相关配置 spark: { app: { name: Nebula Exchange {{exchange.release}} @@ -116,17 +116,17 @@ } } - # Nebula Graph相关配置 + # Nebula Graph 相关配置 nebula: { address:{ - # 指定Graph服务和所有Meta服务的IP地址和端口。 + # 指定 Graph 服务和所有 Meta 服务的 IP 地址和端口。 # 如果有多台服务器,地址之间用英文逗号(,)分隔。 - # 格式: "ip1:port","ip2:port","ip3:port" + # 格式:"ip1:port","ip2:port","ip3:port" graph:["127.0.0.1:9669"] meta:["127.0.0.1:9559"] } - # 指定拥有Nebula Graph写权限的用户名和密码。 + # 指定拥有 Nebula Graph 写权限的用户名和密码。 user: root pswd: nebula @@ -151,118 +151,116 @@ # 处理点 tags: [ - # 设置Tag player相关信息。 + # 设置 Tag player 相关信息。 { - # 指定Nebula Graph中定义的Tag名称。 + # 指定 Nebula Graph 中定义的 Tag 名称。 name: player type: { - # 指定数据源,使用Parquet。 + # 指定数据源,使用 Parquet。 source: parquet - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定Parquet文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.csv"。 + # 指定 Parquet 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.csv"。 path: "hdfs://192.168.11.139000/data/vertex_player.parquet" - # 在fields里指定Parquet文件中key名称,其对应的value会作为Nebula Graph中指定属性的数据源。 + # 在 fields 里指定 Parquet 文件中 key 名称,其对应的 value 会作为 Nebula Graph 中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [age,name] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [age, name] - # 指定一个列作为VID的源。 - # vertex的值必须与Parquet文件中的字段保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # 指定一个列作为 VID 的源。 + # vertex 的值必须与 Parquet 文件中的字段保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:id } - # 指定单批次写入Nebula Graph的最大点数量。 + # 指定单批次写入 Nebula Graph 的最大点数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 设置Tag team相关信息。 + # 设置 Tag team 相关信息。 { - # 指定Nebula Graph中定义的Tag名称。 + # 指定 Nebula Graph 中定义的 Tag 名称。 name: team type: { - # 指定数据源,使用Parquet。 + # 指定数据源,使用 Parquet。 source: parquet - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定Parquet文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.csv"。 + # 指定 Parquet 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.csv"。 path: "hdfs://192.168.11.13:9000/data/vertex_team.parquet" - # 在fields里指定Parquet文件中key名称,其对应的value会作为Nebula Graph中指定属性的数据源。 + # 在 fields 里指定 Parquet 文件中 key 名称,其对应的 value 会作为 Nebula Graph 中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [name] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [name] - # 指定一个列作为VID的源。 - # vertex的值必须与Parquet文件中的字段保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # 指定一个列作为 VID 的源。 + # vertex 的值必须与 Parquet 文件中的字段保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:id } - - # 指定单批次写入Nebula Graph的最大点数量。 + # 指定单批次写入 Nebula Graph 的最大点数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 如果需要添加更多点,请参考前面的配置进行添加。 ] # 处理边 edges: [ - # 设置Edge type follow相关信息。 + # 设置 Edge type follow 相关信息。 { - # 指定Nebula Graph中定义的Edge type名称。 + # 指定 Nebula Graph 中定义的 Edge type 名称。 name: follow type: { - # 指定数据源,使用Parquet。 + # 指定数据源,使用 Parquet。 source: parquet - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定Parquet文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.csv"。 + # 指定 Parquet 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.csv"。 path: "hdfs://192.168.11.13:9000/data/edge_follow.parquet" - # 在fields里指定Parquet文件中key名称,其对应的value会作为Nebula Graph中指定属性的数据源。 + # 在 fields 里指定 Parquet 文件中 key 名称,其对应的 value 会作为 Nebula Graph 中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [degree] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [degree] # 指定一个列作为起始点和目的点的源。 - # vertex的值必须与Parquet文件中的字段保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # vertex 的值必须与 Parquet 文件中的字段保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: src } @@ -270,45 +268,44 @@ field: dst } - - # 指定一个列作为rank的源(可选)。 + # 指定一个列作为 rank 的源(可选)。 #ranking: rank - # 指定单批次写入Nebula Graph的最大边数量。 + # 指定单批次写入 Nebula Graph 的最大边数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 设置Edge type serve相关信息。 + # 设置 Edge type serve 相关信息。 { - # 指定Nebula Graph中定义的Edge type名称。 + # 指定 Nebula Graph 中定义的 Edge type 名称。 name: serve type: { - # 指定数据源,使用Parquet。 + # 指定数据源,使用 Parquet。 source: parquet - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # 指定Parquet文件的路径。 - # 如果文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx"。 - # 如果文件存储在本地,用双引号括起路径,以file://开头,例如"file:///tmp/xx.csv"。 + # 指定 Parquet 文件的路径。 + # 如果文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx"。 + # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.csv"。 path: "hdfs://192.168.11.13:9000/data/edge_serve.parquet" - # 在fields里指定Parquet文件中key名称,其对应的value会作为Nebula Graph中指定属性的数据源。 + # 在 fields 里指定 Parquet 文件中 key 名称,其对应的 value 会作为 Nebula Graph 中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [start_year,end_year] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [start_year, end_year] # 指定一个列作为起始点和目的点的源。 - # vertex的值必须与Parquet文件中的字段保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # vertex 的值必须与 Parquet 文件中的字段保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: src } @@ -316,15 +313,13 @@ field: dst } - - # 指定一个列作为rank的源(可选)。 + # 指定一个列作为 rank 的源(可选)。 #ranking: _c5 - - # 指定单批次写入Nebula Graph的最大边数量。 + # 指定单批次写入 Nebula Graph 的最大边数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } @@ -333,9 +328,9 @@ } ``` -### 步骤 4:向Nebula Graph导入数据 +### 步骤 4:向 Nebula Graph 导入数据 -运行如下命令将Parquet文件数据导入到Nebula Graph中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 Parquet 文件数据导入到 Nebula Graph 中。关于参数的说明,请参见 [导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -343,7 +338,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchan !!! note - JAR包有两种获取方式:[自行编译](../ex-ug-compile.md)或者从maven仓库下载。 + JAR 包有两种获取方式:[自行编译](../ex-ug-compile.md) 或者从 maven 仓库下载。 示例: @@ -355,14 +350,14 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 5:(可选)验证数据 -用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在 Nebula Graph 客户端(例如 Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql GO FROM "player100" OVER follow; ``` -用户也可以使用命令[`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md)查看统计数据。 +用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 6:(如有)在Nebula Graph中重建索引 +### 步骤 6:(如有)在 Nebula Graph 中重建索引 -导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在 Nebula Graph 中重新创建并重建索引。详情请参见 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-pulsar.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-pulsar.md index c9697a6d6cf..502b3a66284 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-pulsar.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-pulsar.md @@ -1,10 +1,10 @@ -# 导入Pulsar数据 +# 导入 Pulsar 数据 -本文简单说明如何使用Exchange将存储在Pulsar上的数据导入Nebula Graph。 +本文简单说明如何使用 Exchange 将存储在 Pulsar 上的数据导入 Nebula Graph。 ## 环境配置 -本文示例在MacOS下完成,以下是相关的环境配置信息: +本文示例在 MacOS 下完成,以下是相关的环境配置信息: - 硬件规格: - CPU:1.7 GHz Quad-Core Intel Core i7 @@ -12,33 +12,33 @@ - Spark:2.4.7,单机版 -- Nebula Graph:{{nebula.release}}。使用[Docker Compose部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- Nebula Graph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)并获取如下信息: +- 已经 [安装部署 Nebula Graph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - - Graph服务和Meta服务的的IP地址和端口。 + - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有Nebula Graph写权限的用户名和密码。 + - 拥有 Nebula Graph 写权限的用户名和密码。 -- 已经编译Exchange。详情请参见[编译Exchange](../ex-ug-compile.md)。本示例中使用Exchange {{exchange.release}}。 +- 已经编译 Exchange。详情请参见 [编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 -- 已经安装Spark。 +- 已经安装 Spark。 -- 了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。 +- 了解 Nebula Graph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 -- 已经安装并开启Pulsar服务。 +- 已经安装并开启 Pulsar 服务。 ## 操作步骤 -### 步骤 1:在Nebula Graph中创建Schema +### 步骤 1:在 Nebula Graph 中创建 Schema -分析数据,按以下步骤在Nebula Graph中创建Schema: +分析数据,按以下步骤在 Nebula Graph 中创建 Schema: -1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。 +1. 确认 Schema 要素。Nebula Graph 中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -47,7 +47,7 @@ | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 在Nebula Graph中创建一个图空间**basketballplayer**,并创建一个Schema,如下所示。 +2. 在 Nebula Graph 中创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -56,31 +56,31 @@ replica_factor = 1, \ vid_type = FIXED_STRING(30)); - ## 选择图空间basketballplayer + ## 选择图空间 basketballplayer nebula> USE basketballplayer; - ## 创建Tag player + ## 创建 Tag player nebula> CREATE TAG player(name string, age int); - ## 创建Tag team + ## 创建 Tag team nebula> CREATE TAG team(name string); - ## 创建Edge type follow + ## 创建 Edge type follow nebula> CREATE EDGE follow(degree int); - ## 创建Edge type serve + ## 创建 Edge type serve nebula> CREATE EDGE serve(start_year int, end_year int); ``` -更多信息,请参见[快速开始](../../2.quick-start/1.quick-start-workflow.md)。 +更多信息,请参见 [快速开始](../../2.quick-start/1.quick-start-workflow.md)。 ### 步骤 2:修改配置文件 -编译Exchange后,复制`target/classes/application.conf`文件设置Pulsar数据源相关的配置。在本示例中,复制的文件名为`pulsar_application.conf`。各个配置项的详细说明请参见[配置说明](../parameter-reference/ex-ug-parameter.md)。 +编译 Exchange 后,复制`target/classes/application.conf`文件设置 Pulsar 数据源相关的配置。在本示例中,复制的文件名为`pulsar_application.conf`。各个配置项的详细说明请参见 [配置说明](../parameter-reference/ex-ug-parameter.md)。 ```conf { - # Spark相关配置 + # Spark 相关配置 spark: { app: { name: Nebula Exchange {{exchange.release}} @@ -94,20 +94,19 @@ } } - - # Nebula Graph相关配置 + # Nebula Graph 相关配置 nebula: { address:{ - # 以下为Nebula Graph的Graph服务和Meta服务所在机器的IP地址及端口。 + # 以下为 Nebula Graph 的 Graph 服务和 Meta 服务所在机器的 IP 地址及端口。 # 如果有多个地址,格式为 "ip1:port","ip2:port","ip3:port"。 # 不同地址之间以英文逗号 (,) 隔开。 graph:["127.0.0.1:9669"] meta:["127.0.0.1:9559"] } - # 填写的账号必须拥有Nebula Graph相应图空间的写数据权限。 + # 填写的账号必须拥有 Nebula Graph 相应图空间的写数据权限。 user: root pswd: nebula - # 填写Nebula Graph中需要写入数据的图空间名称。 + # 填写 Nebula Graph 中需要写入数据的图空间名称。 space: basketballplayer connection { timeout: 3000 @@ -127,37 +126,36 @@ } # 处理点 tags: [ - # 设置Tag player相关信息。 + # 设置 Tag player 相关信息。 { - # Nebula Graph中对应的Tag 名称。 + # Nebula Graph 中对应的 Tag 名称。 name: player type: { - # 指定数据源文件格式,设置为Pulsar。 + # 指定数据源文件格式,设置为 Pulsar。 source: pulsar - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # Pulsar服务器地址。 + # Pulsar 服务器地址。 service: "pulsar://127.0.0.1:6650" - # 连接pulsar的admin.url。 + # 连接 pulsar 的 admin.url。 admin: "http://127.0.0.1:8081" - # Pulsar的选项,可以从topic、topics和topicsPattern选择一个进行配置。 + # Pulsar 的选项,可以从 topic、topics 和 topicsPattern 选择一个进行配置。 options: { topics: "topic1,topic2" } - # 在fields里指定player表中的列名称,其对应的value会作为Nebula Graph中指定属性。 - # fields和nebula.fields里的配置必须一一对应。 + # 在 fields 里指定 player 表中的列名称,其对应的 value 会作为 Nebula Graph 中指定属性。 + # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [age,name] nebula.fields: [age,name] - # 指定表中某一列数据为Nebula Graph中点VID的来源。 + # 指定表中某一列数据为 Nebula Graph 中点 VID 的来源。 vertex:{ field:playerid } - # 单批次写入 Nebula Graph 的数据条数。 batch: 10 @@ -166,7 +164,7 @@ # 读取消息的间隔。单位:秒。 interval.seconds: 10 } - # 设置Tag team相关信息。 + # 设置 Tag team 相关信息。 { name: team type: { @@ -192,47 +190,45 @@ # 处理边数据 edges: [ - # 设置Edge type follow相关信息 + # 设置 Edge type follow 相关信息 { - # Nebula Graph中对应的Edge type名称。 + # Nebula Graph 中对应的 Edge type 名称。 name: follow type: { - # 指定数据源文件格式,设置为Pulsar。 + # 指定数据源文件格式,设置为 Pulsar。 source: pulsar - # 指定边数据导入Nebula Graph的方式, - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定边数据导入 Nebula Graph 的方式, + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: client } - # Pulsar服务器地址。 + # Pulsar 服务器地址。 service: "pulsar://127.0.0.1:6650" - # 连接pulsar的admin.url。 + # 连接 pulsar 的 admin.url。 admin: "http://127.0.0.1:8081" - # Pulsar的选项,可以从topic、topics和topicsPattern选择一个进行配置。 + # Pulsar 的选项,可以从 topic、topics 和 topicsPattern 选择一个进行配置。 options: { topics: "topic1,topic2" } - # 在fields里指定follow表中的列名称,其对应的value会作为Nebula Graph中指定属性。 - # fields和nebula.fields里的配置必须一一对应。 + # 在 fields 里指定 follow 表中的列名称,其对应的 value 会作为 Nebula Graph 中指定属性。 + # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [degree] nebula.fields: [degree] - # 在source里,将follow表中某一列作为边的起始点数据源。 - # 在target里,将follow表中某一列作为边的目的点数据源。 + # 在 source 里,将 follow 表中某一列作为边的起始点数据源。 + # 在 target 里,将 follow 表中某一列作为边的目的点数据源。 source:{ field:src_player } - target:{ field:dst_player } - # 单批次写入 Nebula Graph 的数据条数。 batch: 10 @@ -243,7 +239,7 @@ interval.seconds: 10 } - # 设置Edge type serve相关信息 + # 设置 Edge type serve 相关信息 { name: serve type: { @@ -274,9 +270,9 @@ } ``` -### 步骤 3:向Nebula Graph导入数据 +### 步骤 3:向 Nebula Graph 导入数据 -运行如下命令将Pulsar数据导入到Nebula Graph中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 Pulsar 数据导入到 Nebula Graph 中。关于参数的说明,请参见 [导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -284,7 +280,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchan !!! note - JAR包有两种获取方式:[自行编译](../ex-ug-compile.md)或者从maven仓库下载。 + JAR 包有两种获取方式:[自行编译](../ex-ug-compile.md) 或者从 maven 仓库下载。 示例: @@ -296,14 +292,14 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 4:(可选)验证数据 -用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在 Nebula Graph 客户端(例如 Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql GO FROM "player100" OVER follow; ``` -用户也可以使用命令[`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md)查看统计数据。 +用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 5:(如有)在Nebula Graph中重建索引 +### 步骤 5:(如有)在 Nebula Graph 中重建索引 -导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 \ No newline at end of file +导入数据后,用户可以在 Nebula Graph 中重新创建并重建索引。详情请参见 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 \ No newline at end of file diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-sst.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-sst.md index 719ff003855..c947fe3c04e 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-sst.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-sst.md @@ -1,52 +1,52 @@ -# 导入SST文件数据 +# 导入 SST 文件数据 -本文以一个示例说明如何将数据源的数据生成SST(Sorted String Table)文件并保存在HDFS上,然后导入Nebula Graph,示例数据源是CSV文件。 +本文以一个示例说明如何将数据源的数据生成 SST(Sorted String Table)文件并保存在 HDFS 上,然后导入 Nebula Graph,示例数据源是 CSV 文件。 ## 注意事项 -- 仅Linux系统支持导入SST文件。 +- 仅 Linux 系统支持导入 SST 文件。 -- 不支持属性的Default值。 +- 不支持属性的 Default 值。 -- 企业版Exchange {{exchange.release}}不支持基于[GEOGRAPHY](../../3.ngql-guide/3.data-types/10.geography.md)类型的数据生成SST文件。 +- 企业版 Exchange {{exchange.release}}不支持基于 [GEOGRAPHY](../../3.ngql-guide/3.data-types/10.geography.md) 类型的数据生成 SST 文件。 ## 背景信息 -Exchange支持两种数据导入模式: +Exchange 支持两种数据导入模式: -- 直接将数据源的数据通过**nGQL**语句的形式导入Nebula Graph。 +- 直接将数据源的数据通过** nGQL **语句的形式导入 Nebula Graph。 -- 将数据源的数据生成SST文件,然后借助Console将SST文件导入Nebula Graph。 +- 将数据源的数据生成 SST 文件,然后借助 Console 将 SST 文件导入 Nebula Graph。 -下文将介绍生成SST文件并用其导入数据的适用场景、实现方法、前提条件、操作步骤等内容。 +下文将介绍生成 SST 文件并用其导入数据的适用场景、实现方法、前提条件、操作步骤等内容。 ## 适用场景 -- 适合在线业务,因为生成时几乎不会影响业务(只是读取Schema),导入速度快。 +- 适合在线业务,因为生成时几乎不会影响业务(只是读取 Schema),导入速度快。 !!! caution - 虽然导入速度快,但是导入期间(大约10秒)会阻塞对应空间的写操作,建议在业务低峰期进行导入。 + 虽然导入速度快,但是导入期间(大约 10 秒)会阻塞对应空间的写操作,建议在业务低峰期进行导入。 - 适合数据源数据量较大的场景,导入速度快。 ## 实现方法 -Nebula Graph底层使用RocksDB作为键值型存储引擎。RocksDB是基于硬盘的存储引擎,提供了一系列API用于创建及导入SST格式的文件,有助于快速导入海量数据。 +Nebula Graph 底层使用 RocksDB 作为键值型存储引擎。RocksDB 是基于硬盘的存储引擎,提供了一系列 API 用于创建及导入 SST 格式的文件,有助于快速导入海量数据。 -SST文件是一个内部包含了任意长度的有序键值对集合的文件,用于高效地存储大量键值型数据。生成SST文件的整个过程主要由Exchange的Reader、sstProcessor和sstWriter完成。整个数据处理过程如下: +SST 文件是一个内部包含了任意长度的有序键值对集合的文件,用于高效地存储大量键值型数据。生成 SST 文件的整个过程主要由 Exchange 的 Reader、sstProcessor 和 sstWriter 完成。整个数据处理过程如下: -1. Reader从数据源中读取数据。 +1. Reader 从数据源中读取数据。 -2. sstProcessor根据Nebula Graph的Schema信息生成SST文件,然后上传至HDFS。SST文件的格式请参见[数据存储格式](../../1.introduction/3.nebula-graph-architecture/4.storage-service.md)。 +2. sstProcessor 根据 Nebula Graph 的 Schema 信息生成 SST 文件,然后上传至 HDFS。SST 文件的格式请参见 [数据存储格式](../../1.introduction/3.nebula-graph-architecture/4.storage-service.md)。 -3. sstWriter打开一个文件并插入数据。生成SST文件时,Key必须按照顺序写入。 +3. sstWriter 打开一个文件并插入数据。生成 SST 文件时,Key 必须按照顺序写入。 -4. 生成SST文件之后,RocksDB通过`IngestExternalFile()`方法将SST文件导入到Nebula Graph中。例如: +4. 生成 SST 文件之后,RocksDB 通过`IngestExternalFile()`方法将 SST 文件导入到 Nebula Graph 中。例如: ``` IngestExternalFileOptions ifo; - # 导入两个SST文件 + # 导入两个 SST 文件 Status s = db_->IngestExternalFile({"/home/usr/file1.sst", "/home/usr/file2.sst"}, ifo); if (!s.ok()) { printf("Error while adding file %s and %s, Error %s\n", @@ -55,15 +55,15 @@ SST文件是一个内部包含了任意长度的有序键值对集合的文件 } ``` - 调用`IngestExternalFile()`方法时,RocksDB默认会将文件拷贝到数据目录,并且阻塞RocksDB写入操作。如果SST文件中的键范围覆盖了Memtable键的范围,则将Memtable落盘(flush)到硬盘。将SST文件放置在LSM树最优位置后,为文件分配一个全局序列号,并打开写操作。 + 调用`IngestExternalFile()`方法时,RocksDB 默认会将文件拷贝到数据目录,并且阻塞 RocksDB 写入操作。如果 SST 文件中的键范围覆盖了 Memtable 键的范围,则将 Memtable 落盘(flush)到硬盘。将 SST 文件放置在 LSM 树最优位置后,为文件分配一个全局序列号,并打开写操作。 ## 数据集 -本文以[basketballplayer数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip)为例。 +本文以 [basketballplayer 数据集](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip) 为例。 ## 环境配置 -本文示例在MacOS下完成,以下是相关的环境配置信息: +本文示例在 MacOS 下完成,以下是相关的环境配置信息: - 硬件规格: - CPU:1.7 GHz Quad-Core Intel Core i7 @@ -79,41 +79,41 @@ SST文件是一个内部包含了任意长度的有序键值对集合的文件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署Nebula Graph {{nebula.release}}](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)并获取如下信息: +- 已经 [安装部署 Nebula Graph {{nebula.release}}](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - - Graph服务和Meta服务的的IP地址和端口。 + - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有Nebula Graph写权限的用户名和密码。 + - 拥有 Nebula Graph 写权限的用户名和密码。 - - Meta服务配置文件中的`--ws_storage_http_port`和Storage服务配置文件中的`--ws_http_port`一致。例如都为`19779`。 + - Meta 服务配置文件中的`--ws_storage_http_port`和 Storage 服务配置文件中的`--ws_http_port`一致。例如都为`19779`。 - - Graph服务配置文件中的`--ws_meta_http_port`和Meta服务配置文件中的`--ws_http_port`一致。例如都为`19559`。 + - Graph 服务配置文件中的`--ws_meta_http_port`和 Meta 服务配置文件中的`--ws_http_port`一致。例如都为`19559`。 - - Schema的信息,包括Tag和Edge type的名称、属性等。 + - Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 -- 已经[编译Exchange](../ex-ug-compile.md),或者直接[下载](https://repo1.maven.org/maven2/com/vesoft/nebula-exchange/)编译完成的.jar文件。本示例中使用Exchange {{exchange.release}}。 +- 已经 [编译 Exchange](../ex-ug-compile.md),或者直接 [下载](https://repo1.maven.org/maven2/com/vesoft/nebula-exchange/) 编译完成的。jar 文件。本示例中使用 Exchange {{exchange.release}}。 -- 已经安装Spark。 +- 已经安装 Spark。 -- 已经安装JDK 1.8或以上版本,并配置环境变量JAVA_HOME。 +- 已经安装 JDK 1.8 或以上版本,并配置环境变量 JAVA_HOME。 -- 确认Hadoop服务在所有部署Storage服务的机器上运行正常。 +- 确认 Hadoop 服务在所有部署 Storage 服务的机器上运行正常。 !!! note - - 如果需要生成其他数据源的SST文件,请参见相应数据源的文档,查看前提条件部分。 + - 如果需要生成其他数据源的 SST 文件,请参见相应数据源的文档,查看前提条件部分。 - - 如果只需要生成SST文件,不需要在部署Storage服务的机器上安装Hadoop服务。 + - 如果只需要生成 SST 文件,不需要在部署 Storage 服务的机器上安装 Hadoop 服务。 - - 如需在INGEST(数据导入)结束后自动移除SST文件,在Storage服务配置文件中增加`--move_files=true`,该配置会让Nebula Graph在INGEST后将SST文件移动(`mv`)到`data`目录下。`--move_files`的默认值为`false`,此时Nebula Graph会复制(`cp`)SST文件而不是移动。 + - 如需在 INGEST(数据导入)结束后自动移除 SST 文件,在 Storage 服务配置文件中增加`--move_files=true`,该配置会让 Nebula Graph 在 INGEST 后将 SST 文件移动(`mv`)到`data`目录下。`--move_files`的默认值为`false`,此时 Nebula Graph 会复制(`cp`)SST 文件而不是移动。 ## 操作步骤 -### 步骤 1:在Nebula Graph中创建Schema +### 步骤 1:在 Nebula Graph 中创建 Schema -分析CSV文件中的数据,按以下步骤在Nebula Graph中创建Schema: +分析 CSV 文件中的数据,按以下步骤在 Nebula Graph 中创建 Schema: -1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。 +1. 确认 Schema 要素。Nebula Graph 中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -122,7 +122,7 @@ SST文件是一个内部包含了任意长度的有序键值对集合的文件 | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 使用Nebula Console创建一个图空间**basketballplayer**,并创建一个Schema,如下所示。 +2. 使用 Nebula Console 创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -131,43 +131,43 @@ SST文件是一个内部包含了任意长度的有序键值对集合的文件 replica_factor = 1, \ vid_type = FIXED_STRING(30)); - ## 选择图空间basketballplayer + ## 选择图空间 basketballplayer nebula> USE basketballplayer; - ## 创建Tag player + ## 创建 Tag player nebula> CREATE TAG player(name string, age int); - ## 创建Tag team + ## 创建 Tag team nebula> CREATE TAG team(name string); - ## 创建Edge type follow + ## 创建 Edge type follow nebula> CREATE EDGE follow(degree int); - ## 创建Edge type serve + ## 创建 Edge type serve nebula> CREATE EDGE serve(start_year int, end_year int); ``` -更多信息,请参见[快速开始](../../2.quick-start/1.quick-start-workflow.md)。 +更多信息,请参见 [快速开始](../../2.quick-start/1.quick-start-workflow.md)。 -### 步骤 2:处理CSV文件 +### 步骤 2:处理 CSV 文件 确认以下信息: -1. 处理CSV文件以满足Schema的要求。 +1. 处理 CSV 文件以满足 Schema 的要求。 !!! note - 可以使用有表头或者无表头的CSV文件。 + 可以使用有表头或者无表头的 CSV 文件。 -2. 获取CSV文件存储路径。 +2. 获取 CSV 文件存储路径。 ### 步骤 3:修改配置文件 -编译Exchange后,复制`target/classes/application.conf`文件设置相关配置。在本示例中,复制的文件名为`sst_application.conf`。各个配置项的详细说明请参见[配置说明](../parameter-reference/ex-ug-parameter.md)。 +编译 Exchange 后,复制`target/classes/application.conf`文件设置相关配置。在本示例中,复制的文件名为`sst_application.conf`。各个配置项的详细说明请参见 [配置说明](../parameter-reference/ex-ug-parameter.md)。 ```conf { - # Spark相关配置 + # Spark 相关配置 spark: { app: { name: Nebula Exchange 2.0 @@ -189,7 +189,7 @@ SST文件是一个内部包含了任意长度的有序键值对集合的文件 } } - # Nebula Graph相关配置 + # Nebula Graph 相关配置 nebula: { address:{ graph:["127.0.0.1:9669"] @@ -199,21 +199,21 @@ SST文件是一个内部包含了任意长度的有序键值对集合的文件 pswd: nebula space: basketballplayer - # SST文件相关配置 + # SST 文件相关配置 path:{ - # 本地临时存放生成的SST文件的目录 + # 本地临时存放生成的 SST 文件的目录 local:"/tmp" - # SST文件在HDFS的存储路径 + # SST 文件在 HDFS 的存储路径 remote:"/sst" - # HDFS的NameNode地址 + # HDFS 的 NameNode 地址 hdfs.namenode: "hdfs://*.*.*.*:9000" } # 客户端连接参数 connection { - # socket连接、执行的超时时间,单位:毫秒。 + # socket 连接、执行的超时时间,单位:毫秒。 timeout: 30000 } @@ -224,46 +224,45 @@ SST文件是一个内部包含了任意长度的有序键值对集合的文件 output: /tmp/errors } - # 使用谷歌的RateLimiter来限制发送到NebulaGraph的请求。 + # 使用谷歌的 RateLimiter 来限制发送到 NebulaGraph 的请求。 rate: { - # RateLimiter的稳定吞吐量。 + # RateLimiter 的稳定吞吐量。 limit: 1024 - # 从RateLimiter获取允许的超时时间,单位:毫秒 + # 从 RateLimiter 获取允许的超时时间,单位:毫秒 timeout: 1000 } } - # 处理点 tags: [ - # 设置Tag player相关信息。 + # 设置 Tag player 相关信息。 { - # 指定Nebula Graph中定义的Tag名称。 + # 指定 Nebula Graph 中定义的 Tag 名称。 name: player type: { - # 指定数据源,使用CSV。 + # 指定数据源,使用 CSV。 source: csv - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: sst } - # 指定CSV文件的路径。 - # 文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx.csv"。 + # 指定 CSV 文件的路径。 + # 文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx.csv"。 path: "hdfs://*.*.*.*:9000/dataset/vertex_player.csv" - # 如果CSV文件没有表头,使用[_c0, _c1, _c2, ..., _cn]表示其表头,并将列指示为属性值的源。 - # 如果CSV文件有表头,则使用实际的列名。 + # 如果 CSV 文件没有表头,使用 [_c0, _c1, _c2, ..., _cn] 表示其表头,并将列指示为属性值的源。 + # 如果 CSV 文件有表头,则使用实际的列名。 fields: [_c1, _c2] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [age, name] - # 指定一个列作为VID的源。 - # vertex的值必须与上述fields或者csv.fields中的列名保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # 指定一个列作为 VID 的源。 + # vertex 的值必须与上述 fields 或者 csv.fields 中的列名保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:_c0 } @@ -271,44 +270,44 @@ SST文件是一个内部包含了任意长度的有序键值对集合的文件 # 指定的分隔符。默认值为英文逗号(,)。 separator: "," - # 如果CSV文件有表头,请将header设置为true。 - # 如果CSV文件没有表头,请将header设置为false。默认值为false。 + # 如果 CSV 文件有表头,请将 header 设置为 true。 + # 如果 CSV 文件没有表头,请将 header 设置为 false。默认值为 false。 header: false - # 指定单批次写入Nebula Graph的最大点数量。 + # 指定单批次写入 Nebula Graph 的最大点数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 设置Tag team相关信息。 + # 设置 Tag team 相关信息。 { - # 指定Nebula Graph中定义的Tag名称。 + # 指定 Nebula Graph 中定义的 Tag 名称。 name: team type: { - # 指定数据源,使用CSV。 + # 指定数据源,使用 CSV。 source: csv - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: sst } - # 指定CSV文件的路径。 - # 文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx.csv"。 + # 指定 CSV 文件的路径。 + # 文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx.csv"。 path: "hdfs://*.*.*.*:9000/dataset/vertex_team.csv" - # 如果CSV文件没有表头,使用[_c0, _c1, _c2, ..., _cn]表示其表头,并将列指示为属性值的源。 - # 如果CSV文件有表头,则使用实际的列名。 + # 如果 CSV 文件没有表头,使用 [_c0, _c1, _c2, ..., _cn] 表示其表头,并将列指示为属性值的源。 + # 如果 CSV 文件有表头,则使用实际的列名。 fields: [_c1] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [name] - # 指定一个列作为VID的源。 - # vertex的值必须与上述fields或者csv.fields中的列名保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # 指定一个列作为 VID 的源。 + # vertex 的值必须与上述 fields 或者 csv.fields 中的列名保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:_c0 } @@ -316,49 +315,48 @@ SST文件是一个内部包含了任意长度的有序键值对集合的文件 # 指定的分隔符。默认值为英文逗号(,)。 separator: "," - # 如果CSV文件有表头,请将header设置为true。 - # 如果CSV文件没有表头,请将header设置为false。默认值为false。 + # 如果 CSV 文件有表头,请将 header 设置为 true。 + # 如果 CSV 文件没有表头,请将 header 设置为 false。默认值为 false。 header: false - # 指定单批次写入Nebula Graph的最大点数量。 + # 指定单批次写入 Nebula Graph 的最大点数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 如果需要添加更多点,请参考前面的配置进行添加。 ] # 处理边 edges: [ - # 设置Edge type follow相关信息。 + # 设置 Edge type follow 相关信息。 { - # 指定Nebula Graph中定义的Edge type名称。 + # 指定 Nebula Graph 中定义的 Edge type 名称。 name: follow type: { - # 指定数据源,使用CSV。 + # 指定数据源,使用 CSV。 source: csv - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: sst } - # 指定CSV文件的路径。 - # 文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx.csv"。 + # 指定 CSV 文件的路径。 + # 文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx.csv"。 path: "hdfs://*.*.*.*:9000/dataset/edge_follow.csv" - # 如果CSV文件没有表头,使用[_c0, _c1, _c2, ..., _cn]表示其表头,并将列指示为属性值的源。 - # 如果CSV文件有表头,则使用实际的列名。 + # 如果 CSV 文件没有表头,使用 [_c0, _c1, _c2, ..., _cn] 表示其表头,并将列指示为属性值的源。 + # 如果 CSV 文件有表头,则使用实际的列名。 fields: [_c2] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [degree] # 指定一个列作为起始点和目的点的源。 - # vertex的值必须与上述fields或者csv.fields中的列名保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # vertex 的值必须与上述 fields 或者 csv.fields 中的列名保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: _c0 } @@ -369,48 +367,48 @@ SST文件是一个内部包含了任意长度的有序键值对集合的文件 # 指定的分隔符。默认值为英文逗号(,)。 separator: "," - # 指定一个列作为rank的源(可选)。 + # 指定一个列作为 rank 的源(可选)。 #ranking: rank - # 如果CSV文件有表头,请将header设置为true。 - # 如果CSV文件没有表头,请将header设置为false。默认值为false。 + # 如果 CSV 文件有表头,请将 header 设置为 true。 + # 如果 CSV 文件没有表头,请将 header 设置为 false。默认值为 false。 header: false - # 指定单批次写入Nebula Graph的最大边数量。 + # 指定单批次写入 Nebula Graph 的最大边数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } - # 设置Edge type serve相关信息。 + # 设置 Edge type serve 相关信息。 { - # 指定Nebula Graph中定义的Edge type名称。 + # 指定 Nebula Graph 中定义的 Edge type 名称。 name: serve type: { - # 指定数据源,使用CSV。 + # 指定数据源,使用 CSV。 source: csv - # 指定如何将点数据导入Nebula Graph:Client或SST。 + # 指定如何将点数据导入 Nebula Graph:Client 或 SST。 sink: sst } - # 指定CSV文件的路径。 - # 文件存储在HDFS上,用双引号括起路径,以hdfs://开头,例如"hdfs://ip:port/xx/xx.csv"。 + # 指定 CSV 文件的路径。 + # 文件存储在 HDFS 上,用双引号括起路径,以 hdfs://开头,例如"hdfs://ip:port/xx/xx.csv"。 path: "hdfs://*.*.*.*:9000/dataset/edge_serve.csv" - # 如果CSV文件没有表头,使用[_c0, _c1, _c2, ..., _cn]表示其表头,并将列指示为属性值的源。 - # 如果CSV文件有表头,则使用实际的列名。 + # 如果 CSV 文件没有表头,使用 [_c0, _c1, _c2, ..., _cn] 表示其表头,并将列指示为属性值的源。 + # 如果 CSV 文件有表头,则使用实际的列名。 fields: [_c2,_c3] - # 指定Nebula Graph中定义的属性名称。 - # fields与nebula.fields的顺序必须一一对应。 + # 指定 Nebula Graph 中定义的属性名称。 + # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [start_year, end_year] # 指定一个列作为起始点和目的点的源。 - # vertex的值必须与上述fields或者csv.fields中的列名保持一致。 - # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的VID。 + # vertex 的值必须与上述 fields 或者 csv.fields 中的列名保持一致。 + # 目前,Nebula Graph {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: _c0 } @@ -421,17 +419,17 @@ SST文件是一个内部包含了任意长度的有序键值对集合的文件 # 指定的分隔符。默认值为英文逗号(,)。 separator: "," - # 指定一个列作为rank的源(可选)。 + # 指定一个列作为 rank 的源(可选)。 #ranking: _c5 - # 如果CSV文件有表头,请将header设置为true。 - # 如果CSV文件没有表头,请将header设置为false。默认值为false。 + # 如果 CSV 文件有表头,请将 header 设置为 true。 + # 如果 CSV 文件没有表头,请将 header 设置为 false。默认值为 false。 header: false - # 指定单批次写入Nebula Graph的最大边数量。 + # 指定单批次写入 Nebula Graph 的最大边数量。 batch: 256 - # 指定Spark分片数量。 + # 指定 Spark 分片数量。 partition: 32 } @@ -440,9 +438,9 @@ SST文件是一个内部包含了任意长度的有序键值对集合的文件 } ``` -### 步骤 4:生成SST文件 +### 步骤 4:生成 SST 文件 -运行如下命令将CSV源文件生成为SST文件。关于参数的说明,请参见[命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 CSV 源文件生成为 SST 文件。关于参数的说明,请参见 [命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --conf spark.sql.shuffle.partition= --class com.vesoft.nebula.exchange.Exchange -c @@ -450,11 +448,11 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --conf spark.sql.shuffle.partiti !!! note - 生成SST文件时,会涉及到Spark的shuffle操作,请注意在提交命令中增加`spark.sql.shuffle.partition`的配置。 + 生成 SST 文件时,会涉及到 Spark 的 shuffle 操作,请注意在提交命令中增加`spark.sql.shuffle.partition`的配置。 !!! note - JAR包有两种获取方式:[自行编译](../ex-ug-compile.md)或者从maven仓库下载。 + JAR 包有两种获取方式:[自行编译](../ex-ug-compile.md) 或者从 maven 仓库下载。 示例: @@ -462,25 +460,25 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --conf spark.sql.shuffle.partiti ${SPARK_HOME}/bin/spark-submit --master "local" --conf spark.sql.shuffle.partition=200 --class com.vesoft.nebula.exchange.Exchange /root/nebula-exchange/nebula-exchange/target/nebula-exchange-{{exchange.release}}.jar -c /root/nebula-exchange/nebula-exchange/target/classes/sst_application.conf ``` -任务执行完成后,可以在HDFS上的`/sst`目录(`nebula.path.remote`参数指定)内查看到生成的SST文件。 +任务执行完成后,可以在 HDFS 上的`/sst`目录(`nebula.path.remote`参数指定)内查看到生成的 SST 文件。 !!! note - 如果对Schema有修改操作,例如重建图空间、修改Tag、修改Edge type等,需要重新生成SST文件,因为SST文件会验证Space ID、Tag ID、Edge ID等信息。 + 如果对 Schema 有修改操作,例如重建图空间、修改 Tag、修改 Edge type 等,需要重新生成 SST 文件,因为 SST 文件会验证 Space ID、Tag ID、Edge ID 等信息。 -### 步骤 5:导入SST文件 +### 步骤 5:导入 SST 文件 !!! note 导入前请确认以下信息: - - 确认所有部署Storage服务的机器上都已部署Hadoop服务,并配置HADOOP_HOME和JAVA_HOME。 + - 确认所有部署 Storage 服务的机器上都已部署 Hadoop 服务,并配置 HADOOP_HOME 和 JAVA_HOME。 - - Meta服务配置文件中的`--ws_storage_http_port`(如果没有,请手动添加)和Storage服务配置文件中的`--ws_http_port`一致。例如都为`19779`。 + - Meta 服务配置文件中的`--ws_storage_http_port`(如果没有,请手动添加)和 Storage 服务配置文件中的`--ws_http_port`一致。例如都为`19779`。 - - Graph服务配置文件中的`--ws_meta_http_port`(如果没有,请手动添加)和Meta服务配置文件中的`--ws_http_port`一致。例如都为`19559`。 + - Graph 服务配置文件中的`--ws_meta_http_port`(如果没有,请手动添加)和 Meta 服务配置文件中的`--ws_http_port`一致。例如都为`19559`。 -使用客户端工具连接Nebula Graph数据库,按如下操作导入SST文件: +使用客户端工具连接 Nebula Graph 数据库,按如下操作导入 SST 文件: 1. 执行命令选择之前创建的图空间。 @@ -488,7 +486,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --conf spark.sql.shuffle.partit nebula> USE basketballplayer; ``` -2. 执行命令下载SST文件: +2. 执行命令下载 SST 文件: ```ngql nebula> DOWNLOAD HDFS "hdfs://:/"; @@ -500,7 +498,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --conf spark.sql.shuffle.partit nebula> DOWNLOAD HDFS "hdfs://*.*.*.*:9000/sst"; ``` -2. 执行命令导入SST文件: +2. 执行命令导入 SST 文件: ```ngql nebula> INGEST; @@ -508,20 +506,20 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --conf spark.sql.shuffle.partit !!! note - - 如果需要重新下载,请在Nebula Graph安装路径内的`data/storage/nebula`目录内,将对应Space ID目录内的`download`文件夹删除,然后重新下载SST文件。如果图空间是多副本,保存副本的所有机器都需要删除`download`文件夹。 + - 如果需要重新下载,请在 Nebula Graph 安装路径内的`data/storage/nebula`目录内,将对应 Space ID 目录内的`download`文件夹删除,然后重新下载 SST 文件。如果图空间是多副本,保存副本的所有机器都需要删除`download`文件夹。 - 如果导入时出现问题需要重新导入,重新执行`INGEST;`即可。 ### 步骤 6:(可选)验证数据 -用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在 Nebula Graph 客户端(例如 Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql GO FROM "player100" OVER follow; ``` -用户也可以使用命令[`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md)查看统计数据。 +用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 7:(如有)在Nebula Graph中重建索引 +### 步骤 7:(如有)在 Nebula Graph 中重建索引 -导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在 Nebula Graph 中重新创建并重建索引。详情请参见 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-explorer/about-explorer/ex-ug-what-is-explorer.md b/docs-2.0/nebula-explorer/about-explorer/ex-ug-what-is-explorer.md index 9578bdcb10d..630c2252f4d 100644 --- a/docs-2.0/nebula-explorer/about-explorer/ex-ug-what-is-explorer.md +++ b/docs-2.0/nebula-explorer/about-explorer/ex-ug-what-is-explorer.md @@ -1,4 +1,4 @@ -# 什么是Nebula Explorer +# 什么是 Nebula Explorer Nebula Explorer (简称 Explorer)是一款可以通过 Web 访问的图探索可视化工具,搭配 Nebula Graph 内核使用,用于与图数据进行可视化交互。即使没有图数据操作经验,用户也可以快速成为图专家。 diff --git a/docs-2.0/nebula-explorer/deploy-connect/ex-ug-deploy.md b/docs-2.0/nebula-explorer/deploy-connect/ex-ug-deploy.md index 39593db8bbc..aac9a572681 100644 --- a/docs-2.0/nebula-explorer/deploy-connect/ex-ug-deploy.md +++ b/docs-2.0/nebula-explorer/deploy-connect/ex-ug-deploy.md @@ -19,7 +19,7 @@ 在部署 Explorer 之前,用户需要确认以下信息: -- Nebula Graph 服务已经部署并启动。详细信息参考[Nebula Graph安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 Nebula Graph 安装部署")。 +- Nebula Graph 服务已经部署并启动。详细信息参考 [Nebula Graph 安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 Nebula Graph 安装部署")。 - 以下端口未被使用。 @@ -29,10 +29,10 @@ !!! caution - Explorer 默认使用的端口号为7002,用户可以在安装目录下的 `conf/app.conf` 文件中修改 `httpport`,并重启服务。 + Explorer 默认使用的端口号为 7002,用户可以在安装目录下的 `conf/app.conf` 文件中修改 `httpport`,并重启服务。 - 使用的 Linux 发行版为 CentOS。 -- 安装有版本为1.13及以上的 Go。 +- 安装有版本为 1.13 及以上的 Go。 ### 安装 @@ -42,7 +42,7 @@ Explorer 仅在企业版提供,点击 [定价](https://nebula-graph.com.cn/pricing/) 查看更多。 -2. 使用`sudo rpm -i `命令安装RPM包。 +2. 使用`sudo rpm -i `命令安装 RPM 包。 例如,安装 Explorer 需要运行以下命令,默认安装路径为`/usr/local/nebula-explorer`: @@ -68,7 +68,7 @@ !!! enterpriseonly - License 仅在企业版提供,请发送邮件至inquiry@vesoft.com。 + License 仅在企业版提供,请发送邮件至 inquiry@vesoft.com。 4. 添加 License 后需要使用以下命令停止并重启服务。 @@ -105,7 +105,7 @@ $ sudo rpm -e nebula-explorer-.x86_64 在部署 Explorer 之前,用户需要确认以下信息: -- Nebula Graph 服务已经部署并启动。详细信息参考[Nebula Graph安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 Nebula Graph 安装部署")。 +- Nebula Graph 服务已经部署并启动。详细信息参考 [Nebula Graph 安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 Nebula Graph 安装部署")。 - 以下端口未被使用。 @@ -115,10 +115,10 @@ $ sudo rpm -e nebula-explorer-.x86_64 !!! caution - Explorer 默认使用的端口号为7002,用户可以在安装目录下的 `conf/app.conf` 文件中修改 `httpport`,并重启服务。 + Explorer 默认使用的端口号为 7002,用户可以在安装目录下的 `conf/app.conf` 文件中修改 `httpport`,并重启服务。 - 使用的 Linux 发行版为 CentOS。 -- 安装有版本为1.13及以上的 Go。 +- 安装有版本为 1.13 及以上的 Go。 ### 安装及部署 @@ -172,4 +172,4 @@ $ kill $(lsof -t -i :7002) ![Nebula Explorer 登录页面](../figs/ex-ug-002-1.png) -进入 Explorer 登录界面后,用户需要连接 Nebula Graph。详细信息,参考[连接数据库](../deploy-connect/ex-ug-connect.md)。 +进入 Explorer 登录界面后,用户需要连接 Nebula Graph。详细信息,参考 [连接数据库](../deploy-connect/ex-ug-connect.md)。 diff --git a/docs-2.0/nebula-explorer/operation-guide/ex-ug-canvas.md b/docs-2.0/nebula-explorer/operation-guide/ex-ug-canvas.md index fb3eb871a1e..4fc9cf884df 100644 --- a/docs-2.0/nebula-explorer/operation-guide/ex-ug-canvas.md +++ b/docs-2.0/nebula-explorer/operation-guide/ex-ug-canvas.md @@ -14,17 +14,17 @@ Explorer 支持批量选中多个点边,并查看选中点边的数据,详 ### 框选操作 -点击![frameselect](../figs/nav-frameSelect.png) 图标后,按住左键拖拽并框选多个点和边。示例如下: +点击![frameselect](../figs/nav-frameSelect.png) 图标后,按住左键拖拽并框选多个点和边。示例如下: ![select](../figs/ex-ug-023.png) ### 点击选择多个节边 -点击![singleselect](../figs/nav-singleSelect.png) 图标或按住 Shift 后,用鼠标单击并选中多个点和边,单击空白处取消选择。示例如下: +点击![singleselect](../figs/nav-singleSelect.png) 图标或按住 Shift 后,用鼠标单击并选中多个点和边,单击空白处取消选择。示例如下: ![select](../figs/ex-ug-025.png) ## 快速操作 -用户可以选择一个或多个点和边,在空白处点击右键可以进行对点进行扩展、查找两个点之间的路径、在页面中显示或隐藏其属性等操作。用户选择的点和边数据会影响到可以执行的操作,具体操作的说明参见[图探索拓展](../operation-guide/ex-ug-graph-exploration.md)。 +用户可以选择一个或多个点和边,在空白处点击右键可以进行对点进行扩展、查找两个点之间的路径、在页面中显示或隐藏其属性等操作。用户选择的点和边数据会影响到可以执行的操作,具体操作的说明参见 [图探索拓展](../operation-guide/ex-ug-graph-exploration.md)。 ![quick](../figs/ex-ug-026-1.png) 点击 **适合选中尺寸** 可以将选中的数据,移动到画布的中心,方便用户查看。 diff --git a/docs-2.0/nebula-explorer/operation-guide/ex-ug-page-overview.md b/docs-2.0/nebula-explorer/operation-guide/ex-ug-page-overview.md index 6ab4f12a4b0..531cdc287c0 100644 --- a/docs-2.0/nebula-explorer/operation-guide/ex-ug-page-overview.md +++ b/docs-2.0/nebula-explorer/operation-guide/ex-ug-page-overview.md @@ -18,7 +18,7 @@ Explorer 的主页面分为五个部分: - 导出图形:支持导出当前视图的 CSV 文件或 PNG(图片)文件。 -- 新增画布:支持创建多个画布,最多仅能打开10个画布。 +- 新增画布:支持创建多个画布,最多仅能打开 10 个画布。 ## 侧边栏 @@ -36,43 +36,43 @@ Explorer 的主页面分为五个部分: ### 查询探索 -- 开始:单击 ![query](../figs/nav-query.png)图标,通过VID、Tag和子图,查询数据并显示到页面上。 +- 开始:单击 ![query](../figs/nav-query.png) 图标,通过 VID、Tag 和子图,查询数据并显示到页面上。 ### 画布操作 -- 框选模式:单击![frameSelect](../figs/nav-frameSelect.png) 图标,支持框选画布中的点和边。 -- 选中多条点边:单击![singleSelect](../figs/nav-singleSelect.png) 图标,可以方便的点击画布中的点和边,单击空白处取消选择。 -- 拖动画布:单击![moveCanvas](../figs/nav-moveCanvas.png) 图标,支持拖动画布的位置。 -- 节点过滤:单击![filter](../figs/nav-filter.png)图标,支持对画布中显示的点进行过滤。 +- 框选模式:单击![frameSelect](../figs/nav-frameSelect.png) 图标,支持框选画布中的点和边。 +- 选中多条点边:单击![singleSelect](../figs/nav-singleSelect.png) 图标,可以方便的点击画布中的点和边,单击空白处取消选择。 +- 拖动画布:单击![moveCanvas](../figs/nav-moveCanvas.png) 图标,支持拖动画布的位置。 +- 节点过滤:单击![filter](../figs/nav-filter.png) 图标,支持对画布中显示的点进行过滤。 更多详细信息参考 [画布操作](../operation-guide/ex-ug-canvas.md)。 ### 图探索扩展 -- 拓展:单击 ![expand](../figs/rightclickmenu-expand.png)图标,选择页面上的节点并进行自定义拓展,包括拓展方向、拓展步数、过滤条件等。 -- 共同邻居:单击 ![commonNeighbor](../figs/rightclickmenu-commonNeighbor.png)图标,选择页面上至少两个点并查看它们的共同邻居。 -- 路径查询:单击 ![findPath](../figs/rightclickmenu-findPath.png)图标,可以查询起点到终点之间的 `all paths` 、 `Shortest path` 或者是 `Noloop path` 的路径。 -- 查看属性:单击 ![propertyView](../figs/nav-propertyView.png)图标,选择是否显画布中的点或边的属性值。 +- 拓展:单击 ![expand](../figs/rightclickmenu-expand.png) 图标,选择页面上的节点并进行自定义拓展,包括拓展方向、拓展步数、过滤条件等。 +- 共同邻居:单击 ![commonNeighbor](../figs/rightclickmenu-commonNeighbor.png) 图标,选择页面上至少两个点并查看它们的共同邻居。 +- 路径查询:单击 ![findPath](../figs/rightclickmenu-findPath.png) 图标,可以查询起点到终点之间的 `all paths` 、 `Shortest path` 或者是 `Noloop path` 的路径。 +- 查看属性:单击 ![propertyView](../figs/nav-propertyView.png) 图标,选择是否显画布中的点或边的属性值。 更多详细信息参考 [图探索拓展](../operation-guide/ex-ug-graph-exploration.md)。 ### 删除及撤销 -- 隐藏:单击![miss](../figs/nav-miss.png) 图标,可以隐藏画布中选中的点边。 -- 隐藏其他:单击![missreverse](../figs/nav-missReverse.png) 图标,可以隐藏画布中未选择的所有点边。 -- 撤销:单击 ![Revoke](../figs/nav-Revoke.png)图标,撤销上一步新增或隐藏的操作。 +- 隐藏:单击![miss](../figs/nav-miss.png) 图标,可以隐藏画布中选中的点边。 +- 隐藏其他:单击![missreverse](../figs/nav-missReverse.png) 图标,可以隐藏画布中未选择的所有点边。 +- 撤销:单击 ![Revoke](../figs/nav-Revoke.png) 图标,撤销上一步新增或隐藏的操作。 ### 设置及帮助 -- 选择图空间:单击 ![graphSpace](../figs/nav-graphSpace.png)图标,切换当前图空间。 -- 帮助:单击 ![help](../figs/nav-help.png)图标,查看更多信息。 -- 设置:单击 ![setup](../figs/nav-setup.png)图标,可以查看用户名和快捷键、修改语言设置、清除 Explorer 链接等。 +- 选择图空间:单击 ![graphSpace](../figs/nav-graphSpace.png) 图标,切换当前图空间。 +- 帮助:单击 ![help](../figs/nav-help.png) 图标,查看更多信息。 +- 设置:单击 ![setup](../figs/nav-setup.png) 图标,可以查看用户名和快捷键、修改语言设置、清除 Explorer 链接等。 ## 画布 画布主要分为: -- 图:显示通过VID、Tag或子图查询的数据。 +- 图:显示通过 VID、Tag 或子图查询的数据。 - 点边概览:默认隐藏,在当前画布选中点和边时才显示。点击如图标识,用户可以打开菜单,查看当前子图中选中的点和边的详细数据。 @@ -92,4 +92,4 @@ Explorer 的主页面分为五个部分: ## 关系列表 -点击右侧的 ![unfold](../figs/sidebar-unfold.png)图标,用户可以打开菜单,查看画布中 Tag 和 Edge 的数量、搜索 Tag 和 Edge ,同时也支持修改点的颜色和图标。 +点击右侧的 ![unfold](../figs/sidebar-unfold.png) 图标,用户可以打开菜单,查看画布中 Tag 和 Edge 的数量、搜索 Tag 和 Edge ,同时也支持修改点的颜色和图标。 diff --git a/docs-2.0/nebula-explorer/operation-guide/ex-ug-query-exploration.md b/docs-2.0/nebula-explorer/operation-guide/ex-ug-query-exploration.md index e909b089798..e133f837c73 100644 --- a/docs-2.0/nebula-explorer/operation-guide/ex-ug-query-exploration.md +++ b/docs-2.0/nebula-explorer/operation-guide/ex-ug-query-exploration.md @@ -8,7 +8,7 @@ ## VID 查询 -用户可以通过输入VID或者生成VID的数据查询,一行仅支持一个数据。同时也支持随机导入数据和文件导入数据。确认添加后,数据会显示在画布中。以下给出示例: +用户可以通过输入 VID 或者生成 VID 的数据查询,一行仅支持一个数据。同时也支持随机导入数据和文件导入数据。确认添加后,数据会显示在画布中。以下给出示例: ![VID](../figs/ex-ug-009-2.png) diff --git a/docs-2.0/nebula-flink-connector.md b/docs-2.0/nebula-flink-connector.md index 3a5ff686c7b..718ba4dc0cc 100644 --- a/docs-2.0/nebula-flink-connector.md +++ b/docs-2.0/nebula-flink-connector.md @@ -1,18 +1,18 @@ # Nebula Flink Connector -Nebula Flink Connector是一款帮助Flink用户快速访问Nebula Graph的连接器,支持从Nebula Graph图数据库中读取数据,或者将其他外部数据源读取的数据写入Nebula Graph图数据库。 +Nebula Flink Connector 是一款帮助 Flink 用户快速访问 Nebula Graph 的连接器,支持从 Nebula Graph 图数据库中读取数据,或者将其他外部数据源读取的数据写入 Nebula Graph 图数据库。 -更多使用说明请参见[Nebula Flink Connector](https://github.com/vesoft-inc/nebula-flink-connector)。 +更多使用说明请参见 [Nebula Flink Connector](https://github.com/vesoft-inc/nebula-flink-connector)。 ## 适用场景 -Nebula Flink Connector适用于以下场景: +Nebula Flink Connector 适用于以下场景: -- 在不同的Nebula Graph集群之间迁移数据。 +- 在不同的 Nebula Graph 集群之间迁移数据。 -- 在同一个Nebula Graph集群内不同图空间之间迁移数据。 +- 在同一个 Nebula Graph 集群内不同图空间之间迁移数据。 -- Nebula Graph与其他数据源之间迁移数据。 +- Nebula Graph 与其他数据源之间迁移数据。 ## 更新说明 diff --git a/docs-2.0/nebula-flink/nf-ug-customize-sink.md b/docs-2.0/nebula-flink/nf-ug-customize-sink.md index 090331aa246..a4718b8a7e1 100644 --- a/docs-2.0/nebula-flink/nf-ug-customize-sink.md +++ b/docs-2.0/nebula-flink/nf-ug-customize-sink.md @@ -162,14 +162,14 @@ Flink 将处理完成的数据 sink 到 Nebula Graph 数据库时,需要将 Fl - Nebula Graph 图数据库的账号及其密码。 - `VertexExecutionOptions` 需要配置: - 需要写入点数据的 Nebula Graph 图数据库中的图空间名称。 - - 需要写入的Tag(点类型)名称。 - - 需要写入的Tag属性。 + - 需要写入的 Tag(点类型)名称。 + - 需要写入的 Tag 属性。 - 需要写入的点 VID 所在 Flink 数据流 Row 中的索引。 - 单次写入 Nebula Graph 的数据量限值,默认为 2000。 - `EdgeExecutionOptions` 需要配置: - 需要写入边数据的 Nebula Graph 图数据库中的图空间名称。 - - 需要写入的Edge type。 - - 需要写入的Edge type属性。 + - 需要写入的 Edge type。 + - 需要写入的 Edge type 属性。 - 需要写入的边起点 VID(src_Id)所在 Flink 数据流 Row 中的索引。 - 需要写入的边终点 VID(dst_Id)所在 Flink 数据流 Row 中的索引。 - 需要写入的边 rank 所在 Flink 数据流 Row 中的索引。如果不配置,则写入边数据时不带 rank 信息。 @@ -180,7 +180,7 @@ Flink 将处理完成的数据 sink 到 Nebula Graph 数据库时,需要将 Fl - Graph 服务为本地单副本部署,使用默认端口 - 图空间名称:`flinkSink` - Tag:`player` -- Tag属性:`name` 和 `age` +- Tag 属性:`name` 和 `age` 以下为自定义 NebulaSink 的代码示例。 @@ -192,7 +192,6 @@ NebulaClientOptions nebulaClientOptions = new NebulaClientOptions .build(); NebulaConnectionProvider graphConnectionProvider = new NebulaGraphConnectionProvider(nebulaClientOptions); - // 构造 Nebula Graph 写入点数据的操作参数 List cols = Arrays.asList("name", "age") ExecutionOptions sinkExecutionOptions = new VertexExecutionOptions.ExecutionOptionBuilder() diff --git a/docs-2.0/nebula-flink/nf-ug-customize-source.md b/docs-2.0/nebula-flink/nf-ug-customize-source.md index 94cf7afae54..deba3f0c5e2 100644 --- a/docs-2.0/nebula-flink/nf-ug-customize-source.md +++ b/docs-2.0/nebula-flink/nf-ug-customize-source.md @@ -24,7 +24,7 @@ NebulaSource 的实现类图如下所示。 - `open`:开始 `inputFormat` 的数据读取,将读取的数据转换为 Flink 的数据格式,构造迭代器。 - `close`:在数据读取完成后打印读取日志。 - `reachedEnd`:判断是否读取完成。 -- `nextRecord`:通过迭代器获取下一条数据. +- `nextRecord`:通过迭代器获取下一条数据。 ## 应用实践 @@ -40,15 +40,15 @@ NebulaSource 的实现类图如下所示。 - Nebula Graph 图数据库的账号及其密码。 - `VertexExecutionOptions` 需要配置: - 需要读取点数据的 Nebula Graph 图数据库中的图空间名称。 - - 需要读取的Tag(点类型)名称。一次只能一个Tag。 - - 要读取的Tag属性。 - - 是否读取指定Tag的所有属性,默认为 `false`。如果配置为 `true` 则Tag属性的配置无效。 + - 需要读取的 Tag(点类型)名称。一次只能一个 Tag。 + - 要读取的 Tag 属性。 + - 是否读取指定 Tag 的所有属性,默认为 `false`。如果配置为 `true` 则 Tag 属性的配置无效。 - 单次读取的数据量限值,默认为 2000 个点数据。 - `EdgeExecutionOptions` 需要配置: - 需要读取边数据的 Nebula Graph 图数据库中的图空间名称。 - - 需要读取的Edge type。一次只能一个Edge type。 - - 需要读取的Edge type属性。 - - 是否读取指定Edge type的所有属性,默认为 `false`。如果配置为 `true` 则Edge type属性的配置无效。 + - 需要读取的 Edge type。一次只能一个 Edge type。 + - 需要读取的 Edge type 属性。 + - 是否读取指定 Edge type 的所有属性,默认为 `false`。如果配置为 `true` 则 Edge type 属性的配置无效。 - 单次读取的数据量限值,默认值为 2000 个边数据。 假设需要读取点数据的 Nebula Graph 图数据库信息如下: @@ -56,7 +56,7 @@ NebulaSource 的实现类图如下所示。 - Meta 服务为本地单副本部署,使用默认端口 - 图空间名称:`flinkSource` - Tag:`player` -- Tag属性:`name` 和 `age` +- Tag 属性:`name` 和 `age` - 单次最多读取 100 个点数据 以下为自定义 NebulaSource 的代码示例。 diff --git a/docs-2.0/nebula-importer/config-with-header.md b/docs-2.0/nebula-importer/config-with-header.md index b9450ea1015..633375b52f0 100644 --- a/docs-2.0/nebula-importer/config-with-header.md +++ b/docs-2.0/nebula-importer/config-with-header.md @@ -1,14 +1,14 @@ # 有表头配置说明 -对于有表头(header)的CSV文件,需要在配置文件里设置`withHeader`为`true`,表示CSV文件中第一行为表头,表头内容具有特殊含义。 +对于有表头(header)的 CSV 文件,需要在配置文件里设置`withHeader`为`true`,表示 CSV 文件中第一行为表头,表头内容具有特殊含义。 !!! caution - 如果CSV文件中含有header,Importer就会按照header来解析每行数据的Schema,并忽略yaml文件中的点或边设置。 + 如果 CSV 文件中含有 header,Importer 就会按照 header 来解析每行数据的 Schema,并忽略 yaml 文件中的点或边设置。 ## 示例文件 -有表头的CSV文件示例如下: +有表头的 CSV 文件示例如下: - 点示例 @@ -21,7 +21,7 @@ student102,Jane,17,female ``` - 第一列为点ID,后面三列为属性`name`、`age`和`gender`。 + 第一列为点 ID,后面三列为属性`name`、`age`和`gender`。 - 边示例 @@ -35,19 +35,19 @@ student100,student102,1,96.2 ``` - 前两列的数据分别为起始点ID和目的点ID,第三列为rank,第四列为属性`degree`。 + 前两列的数据分别为起始点 ID 和目的点 ID,第三列为 rank,第四列为属性`degree`。 ## 表头格式说明 -表头通过一些关键词定义起始点、目的点、rank以及一些特殊功能,说明如下: +表头通过一些关键词定义起始点、目的点、rank 以及一些特殊功能,说明如下: -- `:VID`(必填):点ID。需要用`:VID(type)`形式设置数据类型,例如`:VID(string)`或`:VID(int)`。 +- `:VID`(必填):点 ID。需要用`:VID(type)`形式设置数据类型,例如`:VID(string)`或`:VID(int)`。 -- `:SRC_VID`(必填):边的起始点ID。需要用`:SRC_VID(type)`形式设置数据类型。 +- `:SRC_VID`(必填):边的起始点 ID。需要用`:SRC_VID(type)`形式设置数据类型。 -- `:DST_VID`(必填):边的目的点ID。需要用`:DST_VID(type)`形式设置数据类型。 +- `:DST_VID`(必填):边的目的点 ID。需要用`:DST_VID(type)`形式设置数据类型。 -- `:RANK`(可选):边的rank值。 +- `:RANK`(可选):边的 rank 值。 - `:IGNORE`(可选):插入数据时忽略这一列。 @@ -60,11 +60,11 @@ ``` !!! note - 除了`:LABEL`列之外的所有列都可以按任何顺序排序,因此针对较大的CSV文件,用户可以灵活地设置header来选择需要的列。 + 除了`:LABEL`列之外的所有列都可以按任何顺序排序,因此针对较大的 CSV 文件,用户可以灵活地设置 header 来选择需要的列。 -对于Tag或Edge type的属性,格式为`.:`,说明如下: +对于 Tag 或 Edge type 的属性,格式为`.:`,说明如下: -- ``:Tag或者Edge type的名称。 +- ``:Tag 或者 Edge type 的名称。 - ``:属性名称。 @@ -72,12 +72,10 @@ 例如`student.name:string`、`follow.degree:double`。 - - ## 配置示例 ```yaml -# 连接的Nebula Graph版本,连接2.x时设置为v2。 +# 连接的 Nebula Graph 版本,连接 2.x 时设置为 v2。 version: v2 description: example @@ -87,16 +85,16 @@ removeTempFiles: false clientSettings: - # nGQL语句执行失败的重试次数。 + # nGQL 语句执行失败的重试次数。 retry: 3 - # Nebula Graph客户端并发数。 + # Nebula Graph 客户端并发数。 concurrency: 10 - # 每个Nebula Graph客户端的缓存队列大小。 + # 每个 Nebula Graph 客户端的缓存队列大小。 channelBufferSize: 128 - # 指定数据要导入的Nebula Graph图空间。 + # 指定数据要导入的 Nebula Graph 图空间。 space: student # 连接信息。 @@ -106,7 +104,7 @@ clientSettings: address: 192.168.11.13:9669 postStart: - # 配置连接Nebula Graph服务器之后,在插入数据之前执行的一些操作。 + # 配置连接 Nebula Graph 服务器之后,在插入数据之前执行的一些操作。 commands: | DROP SPACE IF EXISTS student; CREATE SPACE IF NOT EXISTS student(partition_num=5, replica_factor=1, vid_type=FIXED_STRING(20)); @@ -118,13 +116,13 @@ clientSettings: afterPeriod: 15s preStop: - # 配置断开Nebula Graph服务器连接之前执行的一些操作。 + # 配置断开 Nebula Graph 服务器连接之前执行的一些操作。 commands: | # 错误等日志信息输出的文件路径。 logPath: ./err/test.log -# CSV文件相关设置。 +# CSV 文件相关设置。 files: # 数据文件的存放路径,如果使用相对路径,则会将路径和当前配置文件的目录拼接。本示例第一个数据文件为点的数据。 @@ -139,24 +137,24 @@ files: # 读取数据的行数限制。 limit: 10 - # 是否按顺序在文件中插入数据行。如果为false,可以避免数据倾斜导致的导入速率降低。 + # 是否按顺序在文件中插入数据行。如果为 false,可以避免数据倾斜导致的导入速率降低。 inOrder: true - # 文件类型,当前仅支持csv。 + # 文件类型,当前仅支持 csv。 type: csv csv: # 是否有表头。 withHeader: true - # 是否有LABEL。 + # 是否有 LABEL。 withLabel: false - # 指定csv文件的分隔符。只支持一个字符的字符串分隔符。 + # 指定 csv 文件的分隔符。只支持一个字符的字符串分隔符。 delimiter: "," schema: - # Schema的类型,可选值为vertex和edge。 + # Schema 的类型,可选值为 vertex 和 edge。 type: vertex # 本示例第二个数据文件为边的数据。 @@ -170,16 +168,16 @@ files: withHeader: true withLabel: false schema: - # Schema的类型为edge。 + # Schema 的类型为 edge。 type: edge edge: - # Edge type名称。 + # Edge type 名称。 name: follow - # 是否包含rank。 + # 是否包含 rank。 withRanking: true ``` !!! Note - 点ID的数据类型需要和`clientSettings.postStart.commands`中的创建图空间语句的数据类型一致。 \ No newline at end of file + 点 ID 的数据类型需要和`clientSettings.postStart.commands`中的创建图空间语句的数据类型一致。 \ No newline at end of file diff --git a/docs-2.0/nebula-importer/config-without-header.md b/docs-2.0/nebula-importer/config-without-header.md index 67949c7a627..c95d33ca02b 100644 --- a/docs-2.0/nebula-importer/config-without-header.md +++ b/docs-2.0/nebula-importer/config-without-header.md @@ -1,10 +1,10 @@ # 无表头配置说明 -对于无表头(header)的CSV文件,需要在配置文件里设置`withHeader`为`false`,表示CSV文件中只含有数据(不含第一行表头),同时可能还需要设置数据类型、对应的列等。 +对于无表头(header)的 CSV 文件,需要在配置文件里设置`withHeader`为`false`,表示 CSV 文件中只含有数据(不含第一行表头),同时可能还需要设置数据类型、对应的列等。 ## 示例文件 -无表头的CSV文件示例如下: +无表头的 CSV 文件示例如下: - 点示例 @@ -16,7 +16,7 @@ student102,Jane,17,female ``` - 第一列为点ID,后面三列为属性`name`、`age`和`gender`。 + 第一列为点 ID,后面三列为属性`name`、`age`和`gender`。 - 边示例 @@ -29,12 +29,12 @@ student100,student102,1,96.2 ``` - 前两列的数据分别为起始点ID和目的点ID,第三列为rank,第四列为属性`degree`。 + 前两列的数据分别为起始点 ID 和目的点 ID,第三列为 rank,第四列为属性`degree`。 ## 配置示例 ```yaml -# 连接的Nebula Graph版本,连接2.x时设置为v2。 +# 连接的 Nebula Graph 版本,连接 2.x 时设置为 v2。 version: v2 description: example @@ -44,16 +44,16 @@ removeTempFiles: false clientSettings: - # nGQL语句执行失败的重试次数。 + # nGQL 语句执行失败的重试次数。 retry: 3 - # Nebula Graph客户端并发数。 + # Nebula Graph 客户端并发数。 concurrency: 10 - # 每个Nebula Graph客户端的缓存队列大小。 + # 每个 Nebula Graph 客户端的缓存队列大小。 channelBufferSize: 128 - # 指定数据要导入的Nebula Graph图空间。 + # 指定数据要导入的 Nebula Graph 图空间。 space: student # 连接信息。 @@ -63,7 +63,7 @@ clientSettings: address: 192.168.11.13:9669 postStart: - # 配置连接Nebula Graph服务器之后,在插入数据之前执行的一些操作。 + # 配置连接 Nebula Graph 服务器之后,在插入数据之前执行的一些操作。 commands: | DROP SPACE IF EXISTS student; CREATE SPACE IF NOT EXISTS student(partition_num=5, replica_factor=1, vid_type=FIXED_STRING(20)); @@ -75,13 +75,13 @@ clientSettings: afterPeriod: 15s preStop: - # 配置断开Nebula Graph服务器连接之前执行的一些操作。 + # 配置断开 Nebula Graph 服务器连接之前执行的一些操作。 commands: | # 错误等日志信息输出的文件路径。 logPath: ./err/test.log -# CSV文件相关设置。 +# CSV 文件相关设置。 files: # 数据文件的存放路径,如果使用相对路径,则会将路径和当前配置文件的目录拼接。本示例第一个数据文件为点的数据。 @@ -96,42 +96,42 @@ files: # 读取数据的行数限制。 limit: 10 - # 是否按顺序在文件中插入数据行。如果为false,可以避免数据倾斜导致的导入速率降低。 + # 是否按顺序在文件中插入数据行。如果为 false,可以避免数据倾斜导致的导入速率降低。 inOrder: true - # 文件类型,当前仅支持csv。 + # 文件类型,当前仅支持 csv。 type: csv csv: # 是否有表头。 withHeader: false - # 是否有LABEL。 + # 是否有 LABEL。 withLabel: false - # 指定csv文件的分隔符。只支持一个字符的字符串分隔符。 + # 指定 csv 文件的分隔符。只支持一个字符的字符串分隔符。 delimiter: "," schema: - # Schema的类型,可选值为vertex和edge。 + # Schema 的类型,可选值为 vertex 和 edge。 type: vertex vertex: - # 点ID设置。 + # 点 ID 设置。 vid: - # 点ID对应CSV文件中列的序号。CSV文件中列的序号从0开始。 + # 点 ID 对应 CSV 文件中列的序号。CSV 文件中列的序号从 0 开始。 index: 0 - # 点ID的数据类型,可选值为int和string,分别对应Nebula Graph中的INT64和FIXED_STRING。 + # 点 ID 的数据类型,可选值为 int 和 string,分别对应 Nebula Graph 中的 INT64 和 FIXED_STRING。 type: string - # Tag设置。 + # Tag 设置。 tags: - # Tag名称。 + # Tag 名称。 - name: student - # Tag内的属性设置。 + # Tag 内的属性设置。 props: # 属性名称。 - name: name @@ -139,7 +139,7 @@ files: # 属性数据类型。 type: string - # 属性对应CSV文件中列的序号。 + # 属性对应 CSV 文件中列的序号。 index: 1 - name: age @@ -160,34 +160,34 @@ files: withHeader: false withLabel: false schema: - # Schema的类型为edge。 + # Schema 的类型为 edge。 type: edge edge: - # Edge type名称。 + # Edge type 名称。 name: follow - # 是否包含rank。 + # 是否包含 rank。 withRanking: true - # 起始点ID设置。 + # 起始点 ID 设置。 srcVID: # 数据类型。 type: string - # 起始点ID对应CSV文件中列的序号。 + # 起始点 ID 对应 CSV 文件中列的序号。 index: 0 - # 目的点ID设置。 + # 目的点 ID 设置。 dstVID: type: string index: 1 - # rank设置。 + # rank 设置。 rank: - # rank值对应CSV文件中列的序号。如果没有设置index,请务必在第三列设置rank的值。之后的列依次设置各属性。 + # rank 值对应 CSV 文件中列的序号。如果没有设置 index,请务必在第三列设置 rank 的值。之后的列依次设置各属性。 index: 2 - # Edge type内的属性设置。 + # Edge type 内的属性设置。 props: # 属性名称。 - name: degree @@ -195,18 +195,18 @@ files: # 属性数据类型。 type: double - # 属性对应CSV文件中列的序号。 + # 属性对应 CSV 文件中列的序号。 index: 3 ``` !!! Note - - CSV文件中列的序号从0开始,即第一列的序号为0,第二列的序号为1。 + - CSV 文件中列的序号从 0 开始,即第一列的序号为 0,第二列的序号为 1。 - - 点ID的数据类型需要和`clientSettings.postStart.commands`中的创建图空间语句的数据类型一致。 + - 点 ID 的数据类型需要和`clientSettings.postStart.commands`中的创建图空间语句的数据类型一致。 - - 如果没有设置index字段指定列的序号,CSV文件必须遵守如下规则: + - 如果没有设置 index 字段指定列的序号,CSV 文件必须遵守如下规则: - + 在点数据文件中,第一列必须为点ID,后面的列为属性,且需要和配置文件内的顺序一一对应。 + + 在点数据文件中,第一列必须为点 ID,后面的列为属性,且需要和配置文件内的顺序一一对应。 - + 在边数据文件中,第一列必须为起始点ID,第二列必须为目的点ID,如果`withRanking`为`true`,第三列必须为rank值,后面的列为属性,且需要和配置文件内的顺序一一对应。 + + 在边数据文件中,第一列必须为起始点 ID,第二列必须为目的点 ID,如果`withRanking`为`true`,第三列必须为 rank 值,后面的列为属性,且需要和配置文件内的顺序一一对应。 diff --git a/docs-2.0/nebula-importer/use-importer.md b/docs-2.0/nebula-importer/use-importer.md index 8dcd2d097ce..5bf93194bb6 100644 --- a/docs-2.0/nebula-importer/use-importer.md +++ b/docs-2.0/nebula-importer/use-importer.md @@ -1,16 +1,16 @@ # Nebula Importer -Nebula Importer(简称Importer)是一款[Nebula Graph](https://github.com/vesoft-inc/nebula)的CSV文件单机导入工具。Importer可以读取本地的CSV文件,然后导入数据至Nebula Graph图数据库中。 +Nebula Importer(简称 Importer)是一款 [Nebula Graph](https://github.com/vesoft-inc/nebula) 的 CSV 文件单机导入工具。Importer 可以读取本地的 CSV 文件,然后导入数据至 Nebula Graph 图数据库中。 ## 适用场景 -Importer适用于将本地CSV文件的内容导入至Nebula Graph中。 +Importer 适用于将本地 CSV 文件的内容导入至 Nebula Graph 中。 ## 优势 - 轻量快捷:不需要复杂环境即可使用,快速导入数据。 -- 灵活筛选:通过配置文件可以实现对CSV文件数据的灵活筛选。 +- 灵活筛选:通过配置文件可以实现对 CSV 文件数据的灵活筛选。 ## 更新说明 @@ -18,23 +18,23 @@ Importer适用于将本地CSV文件的内容导入至Nebula Graph中。 ## 前提条件 -在使用Nebula Importer之前,请确保: +在使用 Nebula Importer 之前,请确保: -- 已部署Nebula Graph服务。目前有三种部署方式: +- 已部署 Nebula Graph 服务。目前有三种部署方式: - - [Docker Compose部署](../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md) + - [Docker Compose 部署](../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md) - - [RPM/DEB包安装](../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) + - [RPM/DEB 包安装](../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) - [源码编译安装](../4.deployment-and-installation/2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md) -- Nebula Graph中已创建Schema,包括图空间、Tag和Edge type,或者通过参数`clientSettings.postStart.commands`设置。 +- Nebula Graph 中已创建 Schema,包括图空间、Tag 和 Edge type,或者通过参数`clientSettings.postStart.commands`设置。 -- 运行Importer的机器已部署Golang环境。详情请参见[Golang 环境搭建](https://github.com/vesoft-inc/nebula-importer/blob/release-v2.0.0-ga/docs/golang-install.md)。 +- 运行 Importer 的机器已部署 Golang 环境。详情请参见 [Golang 环境搭建](https://github.com/vesoft-inc/nebula-importer/blob/release-v2.0.0-ga/docs/golang-install.md)。 ## 操作步骤 -配置yaml文件并准备好待导入的CSV文件,即可使用本工具向Nebula Graph批量写入数据。 +配置 yaml 文件并准备好待导入的 CSV 文件,即可使用本工具向 Nebula Graph 批量写入数据。 ### 源码编译运行 @@ -47,10 +47,10 @@ Importer适用于将本地CSV文件的内容导入至Nebula Graph中。 !!! note 请使用正确的分支。 - Nebula Graph 1.x和2.x的rpc协议不同,因此: + Nebula Graph 1.x 和 2.x 的 rpc 协议不同,因此: - - Nebula Importer v1分支只能连接Nebula Graph 1.x。 - - Nebula Importer master分支和v2分支可以连接Nebula Graph 2.x。 + - Nebula Importer v1 分支只能连接 Nebula Graph 1.x。 + - Nebula Importer master 分支和 v2 分支可以连接 Nebula Graph 2.x。 2. 进入目录`nebula-importer`。 @@ -71,7 +71,7 @@ Importer适用于将本地CSV文件的内容导入至Nebula Graph中。 ``` !!! note - yaml配置文件说明请参见[配置文件](#_7)。 + yaml 配置文件说明请参见 [配置文件](#_7)。 ### 无网络编译方式 @@ -101,9 +101,9 @@ Importer适用于将本地CSV文件的内容导入至Nebula Graph中。 $ go build -mod vendor cmd/importer.go ``` -### Docker方式运行 +### Docker 方式运行 -使用Docker可以不必在本地安装Go语言环境,只需要拉取Nebula Importer的[镜像](https://hub.docker.com/r/vesoft/nebula-importer),并将本地配置文件和CSV数据文件挂载到容器中。命令如下: +使用 Docker 可以不必在本地安装 Go 语言环境,只需要拉取 Nebula Importer 的 [镜像](https://hub.docker.com/r/vesoft/nebula-importer),并将本地配置文件和 CSV 数据文件挂载到容器中。命令如下: ```bash $ docker run --rm -ti \ @@ -114,18 +114,16 @@ $ docker run --rm -ti \ --config ``` -- ``:本地yaml配置文件的绝对路径。 -- ``:本地CSV数据文件的绝对路径。 -- ``:Nebula Graph 2.x请填写`v2`。 +- ``:本地 yaml 配置文件的绝对路径。 +- ``:本地 CSV 数据文件的绝对路径。 +- ``:Nebula Graph 2.x 请填写`v2`。 !!! note - 建议使用相对路径。如果使用本地绝对路径,请检查路径映射到Docker中的路径。 - - + 建议使用相对路径。如果使用本地绝对路径,请检查路径映射到 Docker 中的路径。 ## 配置文件说明 -Nebula Importer通过`nebula-importer/examples/v2/example.yaml`配置文件来描述待导入文件信息、Nebula Graph服务器信息等。用户可以参考示例配置文件:[无表头配置](config-without-header.md)/[有表头配置](config-with-header.md)。下文将分类介绍配置文件内的字段。 +Nebula Importer 通过`nebula-importer/examples/v2/example.yaml`配置文件来描述待导入文件信息、Nebula Graph 服务器信息等。用户可以参考示例配置文件:[无表头配置](config-without-header.md)/[有表头配置](config-with-header.md)。下文将分类介绍配置文件内的字段。 ### 基本配置 @@ -139,13 +137,13 @@ removeTempFiles: false |参数|默认值|是否必须|说明| |:---|:---|:---|:---| -|`version`|v2|是|目标Nebula Graph的版本。| +|`version`|v2|是|目标 Nebula Graph 的版本。| |`description`|example|否|配置文件的描述。| |`removeTempFiles`|false|否|是否删除临时生成的日志和错误数据文件。| ### 客户端配置 -客户端配置存储客户端连接Nebula Graph相关的配置。 +客户端配置存储客户端连接 Nebula Graph 相关的配置。 示例配置如下: @@ -173,20 +171,20 @@ clientSettings: |参数|默认值|是否必须|说明| |:---|:---|:---|:---| -|`clientSettings.retry`|3|否|nGQL语句执行失败的重试次数。| -|`clientSettings.concurrency`|10|否|Nebula Graph客户端并发数。| -|`clientSettings.channelBufferSize`|128|否|每个Nebula Graph客户端的缓存队列大小。| -|`clientSettings.space`|-|是|指定数据要导入的Nebula Graph图空间。不要同时导入多个空间,以免影响性能。| -|`clientSettings.connection.user`|-|是|Nebula Graph的用户名。| -|`clientSettings.connection.password`|-|是|Nebula Graph用户名对应的密码。| -|`clientSettings.connection.address`|-|是|所有Graph服务的地址和端口。| -|`clientSettings.postStart.commands`|-|否|配置连接Nebula Graph服务器之后,在插入数据之前执行的一些操作。| +|`clientSettings.retry`|3|否|nGQL 语句执行失败的重试次数。| +|`clientSettings.concurrency`|10|否|Nebula Graph 客户端并发数。| +|`clientSettings.channelBufferSize`|128|否|每个 Nebula Graph 客户端的缓存队列大小。| +|`clientSettings.space`|-|是|指定数据要导入的 Nebula Graph 图空间。不要同时导入多个空间,以免影响性能。| +|`clientSettings.connection.user`|-|是|Nebula Graph 的用户名。| +|`clientSettings.connection.password`|-|是|Nebula Graph 用户名对应的密码。| +|`clientSettings.connection.address`|-|是|所有 Graph 服务的地址和端口。| +|`clientSettings.postStart.commands`|-|否|配置连接 Nebula Graph 服务器之后,在插入数据之前执行的一些操作。| |`clientSettings.postStart.afterPeriod`|-|否|执行上述`commands`命令后到执行插入数据命令之间的间隔,例如`8s`。| -|`clientSettings.preStop.commands`|-|否|配置断开Nebula Graph服务器连接之前执行的一些操作。| +|`clientSettings.preStop.commands`|-|否|配置断开 Nebula Graph 服务器连接之前执行的一些操作。| ### 文件配置 -文件配置存储数据文件和日志的相关配置,以及Schema的具体信息。 +文件配置存储数据文件和日志的相关配置,以及 Schema 的具体信息。 #### 文件和日志配置 @@ -216,13 +214,13 @@ files: |`files.limit`|-|否|读取数据的行数限制。| |`files.inOrder`|-|否|是否按顺序在文件中插入数据行。如果为`false`,可以避免数据倾斜导致的导入速率降低。| |`files.type`|-|是|文件类型。| -|`files.csv.withHeader`|`false`|是|是否有表头。详情请参见[关于CSV文件表头](#csvheader)。| -|`files.csv.withLabel`|`false`|是|是否有LABEL。详情请参见[有表头配置说明](config-with-header.md)。| -|`files.csv.delimiter`|`","`|是|指定csv文件的分隔符。只支持一个字符的字符串分隔符。| +|`files.csv.withHeader`|`false`|是|是否有表头。详情请参见 [关于 CSV 文件表头](#csvheader)。| +|`files.csv.withLabel`|`false`|是|是否有 LABEL。详情请参见 [有表头配置说明](config-with-header.md)。| +|`files.csv.delimiter`|`","`|是|指定 csv 文件的分隔符。只支持一个字符的字符串分隔符。| -#### Schema配置 +#### Schema 配置 -Schema配置描述当前数据文件的Meta信息,Schema的类型分为点和边两类,可以同时配置多个点或边。 +Schema 配置描述当前数据文件的 Meta 信息,Schema 的类型分为点和边两类,可以同时配置多个点或边。 - 点配置 @@ -251,16 +249,16 @@ schema: |参数|默认值|是否必须|说明| |:---|:---|:---|:---| -|`files.schema.type`|-|是|Schema的类型,可选值为`vertex`和`edge`。| -|`files.schema.vertex.vid.type`|-|否|点ID的数据类型,可选值为`int`和`string`。| -|`files.schema.vertex.vid.index`|-|否|点ID对应CSV文件中列的序号。| -|`files.schema.vertex.tags.name`|-|是|Tag名称。| -|`files.schema.vertex.tags.props.name`|-|是|Tag属性名称,必须和Nebula Graph中的Tag属性一致。| +|`files.schema.type`|-|是|Schema 的类型,可选值为`vertex`和`edge`。| +|`files.schema.vertex.vid.type`|-|否|点 ID 的数据类型,可选值为`int`和`string`。| +|`files.schema.vertex.vid.index`|-|否|点 ID 对应 CSV 文件中列的序号。| +|`files.schema.vertex.tags.name`|-|是|Tag 名称。| +|`files.schema.vertex.tags.props.name`|-|是|Tag 属性名称,必须和 Nebula Graph 中的 Tag 属性一致。| |`files.schema.vertex.tags.props.type`|-|是|属性数据类型,支持`bool`、`int`、`float`、`double`、`timestamp`和`string`。| -|`files.schema.vertex.tags.props.index`|-|否|属性对应CSV文件中列的序号。| +|`files.schema.vertex.tags.props.index`|-|否|属性对应 CSV 文件中列的序号。| !!! note - CSV文件中列的序号从0开始,即第一列的序号为0,第二列的序号为1。 + CSV 文件中列的序号从 0 开始,即第一列的序号为 0,第二列的序号为 1。 - 边配置 @@ -288,20 +286,20 @@ schema: |参数|默认值|是否必须|说明| |:---|:---|:---|:---| -|`files.schema.type`|-|是|Schema的类型,可选值为`vertex`和`edge`。| -|`files.schema.edge.name`|-|是|Edge type名称。| -|`files.schema.edge.srcVID.type`|-|否|边的起始点ID的数据类型。| -|`files.schema.edge.srcVID.index`|-|否|边的起始点ID对应CSV文件中列的序号。| -|`files.schema.edge.dstVID.type`|-|否|边的目的点ID的数据类型。| -|`files.schema.edge.dstVID.index`|-|否|边的目的点ID对应CSV文件中列的序号。| -|`files.schema.edge.rank.index`|-|否|边的rank值对应CSV文件中列的序号。| -|`files.schema.edge.props.name`|-|是|Edge type属性名称,必须和Nebula Graph中的Edge type属性一致。| +|`files.schema.type`|-|是|Schema 的类型,可选值为`vertex`和`edge`。| +|`files.schema.edge.name`|-|是|Edge type 名称。| +|`files.schema.edge.srcVID.type`|-|否|边的起始点 ID 的数据类型。| +|`files.schema.edge.srcVID.index`|-|否|边的起始点 ID 对应 CSV 文件中列的序号。| +|`files.schema.edge.dstVID.type`|-|否|边的目的点 ID 的数据类型。| +|`files.schema.edge.dstVID.index`|-|否|边的目的点 ID 对应 CSV 文件中列的序号。| +|`files.schema.edge.rank.index`|-|否|边的 rank 值对应 CSV 文件中列的序号。| +|`files.schema.edge.props.name`|-|是|Edge type 属性名称,必须和 Nebula Graph 中的 Edge type 属性一致。| |`files.schema.edge.props.type`|-|是|属性类型,支持`bool`、`int`、`float`、`double`、`timestamp`和`string`。| -|`files.schema.edge.props.index`|-|否|属性对应CSV文件中列的序号。| +|`files.schema.edge.props.index`|-|否|属性对应 CSV 文件中列的序号。| -## 关于CSV文件表头(header) +## 关于 CSV 文件表头(header) -Importer根据CSV文件有无表头,需要对配置文件进行不同的设置,相关示例和说明请参见: +Importer 根据 CSV 文件有无表头,需要对配置文件进行不同的设置,相关示例和说明请参见: - [无表头配置说明](config-without-header.md) @@ -309,5 +307,5 @@ Importer根据CSV文件有无表头,需要对配置文件进行不同的设置 ## 视频 -* [数据库导入工具——Nebula Importer 简介](https://www.bilibili.com/video/BV1ny4y1u7i4)(3分09秒) +* [数据库导入工具——Nebula Importer 简介](https://www.bilibili.com/video/BV1ny4y1u7i4)(3 分 09 秒) diff --git a/docs-2.0/nebula-operator/1.introduction-to-nebula-operator.md b/docs-2.0/nebula-operator/1.introduction-to-nebula-operator.md index 8c72f2c25eb..a932b688654 100644 --- a/docs-2.0/nebula-operator/1.introduction-to-nebula-operator.md +++ b/docs-2.0/nebula-operator/1.introduction-to-nebula-operator.md @@ -1,43 +1,43 @@ -# 什么是Nebula Operator +# 什么是 Nebula Operator ## 基本概念 -Nebula Operator是用于在[Kubernetes](https://kubernetes.io)系统上自动化部署和运维[Nebula Graph](https://github.com/vesoft-inc/nebula)集群的工具。依托于Kubernetes扩展机制,Nebula Graph将其运维领域的知识全面注入至Kubernetes系统中,让Nebula Graph成为真正的[云原生图数据库](https://www.nebula-cloud.io/)。 +Nebula Operator 是用于在 [Kubernetes](https://kubernetes.io) 系统上自动化部署和运维 [Nebula Graph](https://github.com/vesoft-inc/nebula) 集群的工具。依托于 Kubernetes 扩展机制,Nebula Graph 将其运维领域的知识全面注入至 Kubernetes 系统中,让 Nebula Graph 成为真正的 [云原生图数据库](https://www.nebula-cloud.io/)。 ## 工作原理 -对于Kubernetes系统内不存在的资源类型,用户可以通过添加自定义API对象的方式注册,常见的方法是使用[CustomResourceDefinition(CRD)](https://kubernetes.io/docs/concepts/extend-kubernetes/api-extension/custom-resources/#customresourcedefinitions) 。 +对于 Kubernetes 系统内不存在的资源类型,用户可以通过添加自定义 API 对象的方式注册,常见的方法是使用 [CustomResourceDefinition(CRD)](https://kubernetes.io/docs/concepts/extend-kubernetes/api-extension/custom-resources/#customresourcedefinitions) 。 -Nebula Operator将Nebula Graph集群的部署管理抽象为CRD。通过结合多个内置的API对象,包括StatefulSet、Service和ConfigMap,Nebula Graph集群的日常管理和维护被编码为一个控制循环。在Kubernetes系统内,每一种内置资源对象,都运行着一个特定的控制循环,将它的实际状态通过事先规定好的编排动作,逐步调整为最终的期望状态。当一个CR实例被提交时,Nebula Operator会根据控制流程驱动数据库集群进入最终状态。 +Nebula Operator 将 Nebula Graph 集群的部署管理抽象为 CRD。通过结合多个内置的 API 对象,包括 StatefulSet、Service 和 ConfigMap,Nebula Graph 集群的日常管理和维护被编码为一个控制循环。在 Kubernetes 系统内,每一种内置资源对象,都运行着一个特定的控制循环,将它的实际状态通过事先规定好的编排动作,逐步调整为最终的期望状态。当一个 CR 实例被提交时,Nebula Operator 会根据控制流程驱动数据库集群进入最终状态。 ## 功能介绍 -Nebula Operator已具备的功能如下: +Nebula Operator 已具备的功能如下: -- **集群创建和卸载**:Nebula Operator简化了用户部署和卸载集群的过程。用户只需提供对应的CR文件,Nebula Operator即可快速创建或者删除一个对应的Nebula Graph集群。更多信息参考[使用Kubectl部署Nebula Graph集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)或者[使用Helm部署Nebula Graph集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 +- **集群创建和卸载**:Nebula Operator 简化了用户部署和卸载集群的过程。用户只需提供对应的 CR 文件,Nebula Operator 即可快速创建或者删除一个对应的 Nebula Graph 集群。更多信息参考 [使用 Kubectl 部署 Nebula Graph 集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md) 或者 [使用 Helm 部署 Nebula Graph 集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 -- **集群扩容和缩容**:通过在控制循环中调用Nebula Graph原生提供的扩缩容接口,Nebula Graph封装Nebula Operator实现了扩缩容的逻辑,用户可以通过YAML配置进行简单的扩缩容,且保证数据的稳定性。更多信息参考[使用Kubeclt扩缩容集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md#_3)或[使用Helm扩缩容集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md#_2)。 +- **集群扩容和缩容**:通过在控制循环中调用 Nebula Graph 原生提供的扩缩容接口,Nebula Graph 封装 Nebula Operator 实现了扩缩容的逻辑,用户可以通过 YAML 配置进行简单的扩缩容,且保证数据的稳定性。更多信息参考 [使用 Kubeclt 扩缩容集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md#_3) 或 [使用 Helm 扩缩容集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md#_2)。 -- **集群升级**:支持升级2.5.x版的Nebula Graph集群至2.6.x版。 +- **集群升级**:支持升级 2.5.x 版的 Nebula Graph 集群至 2.6.x 版。 -- **故障自愈**:Nebula Operator调用Nebula Graph集群提供的接口,动态地感知服务状态。一旦发现异常,Nebula Operator自动进行容错处理。更多信息参考[故障自愈](5.operator-failover.md)。 +- **故障自愈**:Nebula Operator 调用 Nebula Graph 集群提供的接口,动态地感知服务状态。一旦发现异常,Nebula Operator 自动进行容错处理。更多信息参考 [故障自愈](5.operator-failover.md)。 -- **均衡调度**:基于调度器扩展接口,Nebula Operator提供的调度器可以将应用Pods均匀地分布在Nebula Graph集群中。 +- **均衡调度**:基于调度器扩展接口,Nebula Operator 提供的调度器可以将应用 Pods 均匀地分布在 Nebula Graph 集群中。 ## 使用限制 ### 版本限制 -Nebula Operator不支持v1.x版本的Nebula Graph,其与Nebula Graph版本的对应关系如下: +Nebula Operator 不支持 v1.x 版本的 Nebula Graph,其与 Nebula Graph 版本的对应关系如下: -| Nebula Operator版本 | Nebula Graph版本 | +| Nebula Operator 版本 | Nebula Graph 版本 | | ------------------- | ---------------- | | {{operator.release}}| 2.5.x ~ 2.6.x | |0.8.0|2.5.x| ### 功能限制 -目前Nebula Operator只支持手动扩缩容Nebula Graph集群,不支持自动扩缩容Nebula Graph集群。 +目前 Nebula Operator 只支持手动扩缩容 Nebula Graph 集群,不支持自动扩缩容 Nebula Graph 集群。 ## 更新说明 diff --git a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md index 9b83f665b15..f805802c736 100644 --- a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md +++ b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md @@ -1,16 +1,16 @@ -# 部署Nebula Operator +# 部署 Nebula Operator -用户可使用[Helm](https://helm.sh/)工具部署Nebula Operator。 +用户可使用 [Helm](https://helm.sh/) 工具部署 Nebula Operator。 ## 背景信息 -[Nebula Operator](1.introduction-to-nebula-operator.md)为用户管理Nebula Graph集群,使用户无需在生产环境中手动安装、扩展、升级和卸载Nebula Graph,减轻用户管理不同应用版本的负担。 +[Nebula Operator](1.introduction-to-nebula-operator.md) 为用户管理 Nebula Graph 集群,使用户无需在生产环境中手动安装、扩展、升级和卸载 Nebula Graph,减轻用户管理不同应用版本的负担。 ## 前提条件 ### 安装软件 -安装Nebula Operator前,用户需要安装以下软件并确保安装版本的正确性: +安装 Nebula Operator 前,用户需要安装以下软件并确保安装版本的正确性: | 软件 | 版本要求 | | ------------------------------------------------------------ | --------- | @@ -20,59 +20,59 @@ | [CertManager](https://cert-manager.io) | \>= 1.2.0 | | [OpenKruise](https://openkruise.io) | \>= 0.8.0 | -如果使用基于角色的访问控制的策略,用户需开启[RBAC](https://kubernetes.io/docs/admin/authorization/rbac)(可选)。 +如果使用基于角色的访问控制的策略,用户需开启 [RBAC](https://kubernetes.io/docs/admin/authorization/rbac)(可选)。 ### 软件说明 !!! note - 以下内容为Nebula Operator使用的第三方项目,Nebula Operator不负责处理安装这些软件过程中出现的问题。 + 以下内容为 Nebula Operator 使用的第三方项目,Nebula Operator 不负责处理安装这些软件过程中出现的问题。 - [CoreDNS](https://coredns.io/) - CoreDNS是一个灵活的、可扩展的DNS服务器,被[安装](https://github.com/coredns/deployment/tree/master/kubernetes)在集群内作为集群内Pods的DNS服务器。 + CoreDNS 是一个灵活的、可扩展的 DNS 服务器,被 [安装](https://github.com/coredns/deployment/tree/master/kubernetes) 在集群内作为集群内 Pods 的 DNS 服务器。 - Nebula Graph集群中的每个组件通过DNS解析类似`x.default.svc.cluster.local`这样的域名相互通信。 + Nebula Graph 集群中的每个组件通过 DNS 解析类似`x.default.svc.cluster.local`这样的域名相互通信。 - [cert-manager](https://cert-manager.io/) !!! note - 如果用户已将Nebula Operator配置项`admissionWebhook.create`的值设为`false`,无需安装cert-manager。有关配置项的详情,请参考下文**安装Nebula Operator**中的**自定义配置Chart**部分。 + 如果用户已将 Nebula Operator 配置项`admissionWebhook.create`的值设为`false`,无需安装 cert-manager。有关配置项的详情,请参考下文**安装 Nebula Operator **中的**自定义配置 Chart **部分。 - cert-manager是一个自动化管理证书的工具,利用Kubernetes API扩展功能,使用Webhook服务器提供对cert-manager资源的动态准入控制。用户可参考[cert-manager installation documentation](https://cert-manager.io/docs/installation/kubernetes/)安装cert-manager。 + cert-manager 是一个自动化管理证书的工具,利用 Kubernetes API 扩展功能,使用 Webhook 服务器提供对 cert-manager 资源的动态准入控制。用户可参考 [cert-manager installation documentation](https://cert-manager.io/docs/installation/kubernetes/) 安装 cert-manager。 - cert-manager用于验证Nebula Graph的每个组件副本。如果用户在生产环境中运行它并关心Nebula Graph的高可用性,建议将`admissionWebhook.create`的值设为`true`,然后再安装cert-manager。 + cert-manager 用于验证 Nebula Graph 的每个组件副本。如果用户在生产环境中运行它并关心 Nebula Graph 的高可用性,建议将`admissionWebhook.create`的值设为`true`,然后再安装 cert-manager。 - [OpenKruise](https://openkruise.io/en-us/) - OpenKruise是Kubernetes的一整套标准扩展,能与原始的Kubernetes一起工作,为应用Pod、Sidecar容器,甚至是节点中的镜像的管理供更强大和高效的功能。Nebula Operator启动时需要用到OpenKruise开启针对StatefulSet的高级功能。用户可参考[openkruise installation documentation](https://openkruise.io/en-us/docs/installation.html)安装OpenKruise。 + OpenKruise 是 Kubernetes 的一整套标准扩展,能与原始的 Kubernetes 一起工作,为应用 Pod、Sidecar 容器,甚至是节点中的镜像的管理供更强大和高效的功能。Nebula Operator 启动时需要用到 OpenKruise 开启针对 StatefulSet 的高级功能。用户可参考 [openkruise installation documentation](https://openkruise.io/en-us/docs/installation.html) 安装 OpenKruise。 ## 操作步骤 -### 安装Nebula Operator +### 安装 Nebula Operator -1. 添加Nebula Operator chart仓库至Helm。 +1. 添加 Nebula Operator chart 仓库至 Helm。 ```bash helm repo add nebula-operator https://vesoft-inc.github.io/nebula-operator/charts ``` -2. 拉取最新的Helm仓库。 +2. 拉取最新的 Helm 仓库。 ```bash helm repo update ``` - 参考[Helm仓库](https://helm.sh/docs/helm/helm_repo/)获取更多`helm repo`相关信息。 + 参考 [Helm 仓库](https://helm.sh/docs/helm/helm_repo/) 获取更多`helm repo`相关信息。 -3. 安装Nebula Operator。 +3. 安装 Nebula Operator。 ```bash helm install nebula-operator nebula-operator/nebula-operator --namespace= --version=${chart_version} ``` - 例如,安装{{operator.release}}版的Operator命令如下。 + 例如,安装{{operator.release}}版的 Operator 命令如下。 ```bash helm install nebula-operator nebula-operator/nebula-operator --namespace=nebula-operator-system --version={{operator.release}} @@ -80,13 +80,12 @@ - 上述命令中的`nebula-operator-system`为用户创建的命名空间。如果用户未创建该命名空间,可以执行`kubectl create namespace nebula-operator-system`进行创建。用户也可创建其他命名空间。 - - `{{operator.release}}`为Nebula Operator chart的版本。当Chart中只有一个默认版本时,可不指定。执行`helm search repo -l nebula-operator`查看Chart版本。 - + - `{{operator.release}}`为 Nebula Operator chart 的版本。当 Chart 中只有一个默认版本时,可不指定。执行`helm search repo -l nebula-operator`查看 Chart 版本。 - 用户可在执行安装Nebula Operator chart命令时自定义其配置。更多信息,查看下文**自定义配置Chart**。 + 用户可在执行安装 Nebula Operator chart 命令时自定义其配置。更多信息,查看下文**自定义配置 Chart**。 -### 自定义配置Chart +### 自定义配置 Chart 执行`helm show values [CHART] [flags]`查看可配置的选项。 @@ -142,32 +141,32 @@ scheduler: | 参数 | 默认值 | 描述 | | :------------------------------------- | :------------------------------ | :----------------------------------------- | -| `image.nebulaOperator.image` | `vesoft/nebula-operator:{{operator.branch}}` | Nebula Operator的镜像,版本为{{operator.release}}。 | +| `image.nebulaOperator.image` | `vesoft/nebula-operator:{{operator.branch}}` | Nebula Operator 的镜像,版本为{{operator.release}}。 | | `image.nebulaOperator.imagePullPolicy` | `IfNotPresent` | 镜像拉取策略。 | | `imagePullSecrets` | - | 镜像拉取密钥。 | | `kubernetesClusterDomain` | `cluster.local` | 集群域名。 | -| `controllerManager.create` | `true` | 是否启用controller-manager。 | -| `controllerManager.replicas` | `2` | controller-manager副本数。 | -| `admissionWebhook.create` | `true` | 是否启用Admission Webhook。 | -| `shceduler.create` | `true` | 是否启用Scheduler。 | +| `controllerManager.create` | `true` | 是否启用 controller-manager。 | +| `controllerManager.replicas` | `2` | controller-manager 副本数。 | +| `admissionWebhook.create` | `true` | 是否启用 Admission Webhook。 | +| `shceduler.create` | `true` | 是否启用 Scheduler。 | | `shceduler.schedulerName` | `nebula-scheduler` | 调度器名称。 | -| `shceduler.replicas` | `2` | nebula-scheduler副本数。 | +| `shceduler.replicas` | `2` | nebula-scheduler 副本数。 | -执行`helm install [NAME] [CHART] [flags]`命令安装Chart时,可指定Chart配置。更多信息,参考[安装前自定义Chart](https://helm.sh/docs/intro/using_helm/#customizing-the-chart-before-installing)。 +执行`helm install [NAME] [CHART] [flags]`命令安装 Chart 时,可指定 Chart 配置。更多信息,参考 [安装前自定义 Chart](https://helm.sh/docs/intro/using_helm/#customizing-the-chart-before-installing)。 -以下示例为在安装Nebula Operator时,指定Nebula Operator的AdmissionWebhook机制为关闭状态(默认开启AdmissionWebhook): +以下示例为在安装 Nebula Operator 时,指定 Nebula Operator 的 AdmissionWebhook 机制为关闭状态(默认开启 AdmissionWebhook): ```bash helm install nebula-operator nebula-operator/nebula-operator --namespace= --set admissionWebhook.create=false ``` -参考[Helm安装](https://helm.sh/docs/helm/helm_install/)获取更多`helm install`相关信息。 +参考 [Helm 安装](https://helm.sh/docs/helm/helm_install/) 获取更多`helm install`相关信息。 -### 更新Nebula Operator +### 更新 Nebula Operator -用户安装Nebula Operator后,可通过修改`${HOME}/nebula-operator/charts/nebula-operator/values.yaml`文件中参数的值来更新Nebula Operator。操作步骤如下: +用户安装 Nebula Operator 后,可通过修改`${HOME}/nebula-operator/charts/nebula-operator/values.yaml`文件中参数的值来更新 Nebula Operator。操作步骤如下: -1. 克隆Nebula Operator仓库至本机。 +1. 克隆 Nebula Operator 仓库至本机。 ```bash git clone https://github.com/vesoft-inc/nebula-operator.git @@ -175,29 +174,27 @@ helm install nebula-operator nebula-operator/nebula-operator --namespace= -f ${HOME}/nebula-operator/charts/nebula-operator/values.yaml ``` - ``为用户创建的命名空间,nebula-operator相关Pods在此命名空间下。 - + ``为用户创建的命名空间,nebula-operator 相关 Pods 在此命名空间下。 -### 升级Nebula Operator +### 升级 Nebula Operator !!! Compatibility "历史版本兼容性" - 由于0.9.0版本的Nebula Operator的日志盘和数据盘分开存储,因此用升级后的Operator管理2.5.x版本的Nebula Graph集群会导致兼容性问题。用户可以备份2.5.x版本的Nebula Graph集群,然后使用升级版本的Operator创建2.6.x版本集群。 - -1. 拉取最新的Helm仓库。 + 由于 0.9.0 版本的 Nebula Operator 的日志盘和数据盘分开存储,因此用升级后的 Operator 管理 2.5.x 版本的 Nebula Graph 集群会导致兼容性问题。用户可以备份 2.5.x 版本的 Nebula Graph 集群,然后使用升级版本的 Operator 创建 2.6.x 版本集群。 +1. 拉取最新的 Helm 仓库。 ```bash helm repo update ``` -2. 升级Operator。 +2. 升级 Operator。 ```bash helm upgrade nebula-operator nebula-operator/nebula-operator --namespace= --version={{operator.release}} @@ -223,16 +220,16 @@ helm install nebula-operator nebula-operator/nebula-operator --namespace=.yaml @@ -251,15 +248,15 @@ helm install nebula-operator nebula-operator/nebula-operator --namespace= ``` -2. 删除CRD。 +2. 删除 CRD。 ```bash kubectl delete crd nebulaclusters.apps.nebula-graph.io @@ -267,4 +264,4 @@ helm install nebula-operator nebula-operator/nebula-operator --namespace=-graphd-svc`、类型为`ClusterIP`的Service。通过该Service的IP和数据库的端口号,用户可连接Nebula Graph数据库。 +当使用 Nebula Operator 创建 Nebula Graph 集群后,Nebula Operator 会自动在同一命名空间下,创建名为`-graphd-svc`、类型为`ClusterIP`的 Service。通过该 Service 的 IP 和数据库的端口号,用户可连接 Nebula Graph 数据库。 -1. 查看Service,命令如下: +1. 查看 Service,命令如下: ```bash $ kubectl get service -l app.kubernetes.io/cluster= #为变量值,请用实际集群名称替换。 @@ -20,9 +20,9 @@ nebula-storaged-headless ClusterIP None 9779/TCP,19779/TCP,19780/TCP,9778/TCP 23h ``` - `ClusterIP`类型的Service只允许在集群内部访问容器应用。更多信息,请参考[ClusterIP](https://kubernetes.io/docs/concepts/services-networking/service/)。 + `ClusterIP`类型的 Service 只允许在集群内部访问容器应用。更多信息,请参考 [ClusterIP](https://kubernetes.io/docs/concepts/services-networking/service/)。 -2. 使用上述`-graphd-svc` Service的IP连接Nebula Graph数据库: +2. 使用上述`-graphd-svc` Service 的 IP 连接 Nebula Graph 数据库: ```bash kubectl run -ti --image vesoft/nebula-console:{{console.branch}} --restart=Never -- -addr -port -u -p @@ -34,11 +34,11 @@ kubectl run -ti --image vesoft/nebula-console:{{console.branch}} --restart=Never -- nebula-console -addr 10.98.213.34 -port 9669 -u root -p vesoft ``` - - `--image`:为连接Nebula Graph的工具Nebula Console的镜像。 - - ``:自定义的Pod名称。 - - `-addr`:连接Graphd服务的IP地址,即`ClusterIP`类型的Service IP地址。 - - `-port`:连接Graphd服务的端口。默认端口为9669。 - - `-u`:Nebula Graph账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为root)。 + - `--image`:为连接 Nebula Graph 的工具 Nebula Console 的镜像。 + - ``:自定义的 Pod 名称。 + - `-addr`:连接 Graphd 服务的 IP 地址,即`ClusterIP`类型的 Service IP 地址。 + - `-port`:连接 Graphd 服务的端口。默认端口为 9669。 + - `-u`:Nebula Graph 账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为 root)。 - `-p`:用户名对应的密码。未启用身份认证时,密码可以填写任意字符。 如果返回以下内容,说明成功连接数据库: @@ -56,15 +56,15 @@ kubectl run -ti --image vesoft/nebula-console:{{console.branch}} --restart=Never ``` `CLUSTER_DOMAIN`的默认值为`cluster.local`。 -## 通过`NodePort`在Nebula Graph集群外部连接Nebula Graph数据库 +## 通过`NodePort`在 Nebula Graph 集群外部连接 Nebula Graph 数据库 -用户可创建`NodePort`类型的Service,通过节点IP和暴露的节点端口,从集群外部访问集群内部的服务。用户也可以使用云厂商(例如Azure、AWS等)提供的负载均衡服务,设置Service的类型为`LoadBalancer`。 +用户可创建`NodePort`类型的 Service,通过节点 IP 和暴露的节点端口,从集群外部访问集群内部的服务。用户也可以使用云厂商(例如 Azure、AWS 等)提供的负载均衡服务,设置 Service 的类型为`LoadBalancer`。 -`NodePort`类型的Service通过标签选择器`spec.selector`将前端的请求转发到带有标签`app.kubernetes.io/cluster: `、`app.kubernetes.io/component: graphd`的Graphd pod中。 +`NodePort`类型的 Service 通过标签选择器`spec.selector`将前端的请求转发到带有标签`app.kubernetes.io/cluster: `、`app.kubernetes.io/component: graphd`的 Graphd pod 中。 操作步骤如下: -1. 创建名为`graphd-nodeport-service.yaml`的文件。YAML文件内容如下: +1. 创建名为`graphd-nodeport-service.yaml`的文件。YAML 文件内容如下: ```yaml apiVersion: v1 @@ -96,16 +96,16 @@ kubectl run -ti --image vesoft/nebula-console:{{console.branch}} --restart=Never type: NodePort ``` - - Nebula Graph默认使用`9669`端口为客户端提供服务。`19669`为Graph服务端口号。 - - `targetPort`的值为映射至Pod的端口,可自定义。 + - Nebula Graph 默认使用`9669`端口为客户端提供服务。`19669`为 Graph 服务端口号。 + - `targetPort`的值为映射至 Pod 的端口,可自定义。 -2. 执行以下命令使Service服务在集群中生效。 +2. 执行以下命令使 Service 服务在集群中生效。 ```bash kubectl create -f graphd-nodeport-service.yaml ``` -3. 查看Service中Nebula Graph映射至集群节点的端口。 +3. 查看 Service 中 Nebula Graph 映射至集群节点的端口。 ```bash kubectl get services @@ -121,9 +121,9 @@ kubectl run -ti --image vesoft/nebula-console:{{console.branch}} --restart=Never nebula-storaged-headless ClusterIP None 9779/TCP,19779/TCP,19780/TCP,9778/TCP 23h ``` - NodePort类型的Service中,映射至集群节点的端口为`32236`。 + NodePort 类型的 Service 中,映射至集群节点的端口为`32236`。 -4. 使用节点IP和上述映射的节点端口连接Nebula Graph。 +4. 使用节点 IP 和上述映射的节点端口连接 Nebula Graph。 ```bash kubectl run -ti --image vesoft/nebula-console:{{console.branch}} --restart=Never -- -addr -port -u -p @@ -138,25 +138,24 @@ kubectl run -ti --image vesoft/nebula-console:{{console.branch}} --restart=Never (root@nebula) [(none)]> ``` - - `--image`:为连接Nebula Graph的工具Nebula Console的镜像。 - - ``:自定义的Pod名称。本示例为`nebula-console2`。 - - `-addr`:Nebula Graph集群中任一节点IP地址。本示例为`192.168.8.24`。 - - `-port`:Nebula Graph映射至节点的端口。本示例为`32236`。 - - `-u`:Nebula Graph账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为root)。 + - `--image`:为连接 Nebula Graph 的工具 Nebula Console 的镜像。 + - ``:自定义的 Pod 名称。本示例为`nebula-console2`。 + - `-addr`:Nebula Graph 集群中任一节点 IP 地址。本示例为`192.168.8.24`。 + - `-port`:Nebula Graph 映射至节点的端口。本示例为`32236`。 + - `-u`:Nebula Graph 账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为 root)。 - `-p`:用户名对应的密码。未启用身份认证时,密码可以填写任意字符。 +## 通过`Ingress`在 Nebula Graph 集群外部连接 Nebula Graph 数据库 -## 通过`Ingress`在Nebula Graph集群外部连接Nebula Graph数据库 +Nginx Ingress 是 Kubernetes Ingress 的一个实现。Nginx Ingress 通过 Watch 机制感知 Kubernetes 集群的 Ingress 资源,将 Ingress 规则生成 Nginx 配置,使 Nginx 能够转发 7 层流量。 -Nginx Ingress是Kubernetes Ingress的一个实现。Nginx Ingress通过Watch机制感知Kubernetes集群的Ingress资源,将Ingress规则生成Nginx配置,使Nginx能够转发7层流量。 +用户可以通过 HostNetwork 和 DaemonSet 组合的模式使用 Nginx Ingress 从集群外部连接 Nebula Graph 集群。 -用户可以通过HostNetwork和DaemonSet组合的模式使用Nginx Ingress从集群外部连接Nebula Graph集群。 +由于使用 HostNetwork,Nginx Ingress 的 Pod 就不能被调度在同一个节点上。为了避免监听端口冲突,可以事先选择一些节点并将其标记为边缘节点,专门用于部署 Nginx Ingress。然后 Nginx Ingress 以 DaemonSet 模式部署在这些节点上。 -由于使用HostNetwork,Nginx Ingress的Pod就不能被调度在同一个节点上。为了避免监听端口冲突,可以事先选择一些节点并将其标记为边缘节点,专门用于部署Nginx Ingress。然后Nginx Ingress以DaemonSet模式部署在这些节点上。 +由于 Ingress 不支持 TCP 或 UDP 服务,为此 nginx-ingress-controller 使用`--tcp-services-configmap`和`--udp-services-configmap`参数指向一个 ConfigMap,该 ConfigMap 中的键指需要使用的外部端口,值指要公开的服务的格式,值的格式为`<命名空间/服务名称>:<服务端口>`。 -由于Ingress不支持TCP或UDP服务,为此nginx-ingress-controller使用`--tcp-services-configmap`和`--udp-services-configmap`参数指向一个ConfigMap,该ConfigMap中的键指需要使用的外部端口,值指要公开的服务的格式,值的格式为`<命名空间/服务名称>:<服务端口>`。 - -例如指向名为`tcp-services`的ConfigMap的配置如下: +例如指向名为`tcp-services`的 ConfigMap 的配置如下: ```yaml apiVersion: v1 @@ -173,19 +172,19 @@ data: 1. 创建名为`nginx-ingress-daemonset-hostnetwork.yaml`的文件。 - 单击[nginx-ingress-daemonset-hostnetwork.yaml](https://github.com/vesoft-inc/nebula-operator/blob/{{operator.branch}}/config/samples/nginx-ingress-daemonset-hostnetwork.yaml)查看完整的YAML示例内容。 + 单击 [nginx-ingress-daemonset-hostnetwork.yaml](https://github.com/vesoft-inc/nebula-operator/blob/{{operator.branch}}/config/samples/nginx-ingress-daemonset-hostnetwork.yaml) 查看完整的 YAML 示例内容。 !!! note - 上述YAML中的资源对象均使用`nginx-ingress`命名空间。用户可执行`kubectl create namesapce nginx-ingress`创建命名空间,或者自定义其他命名空间。 + 上述 YAML 中的资源对象均使用`nginx-ingress`命名空间。用户可执行`kubectl create namesapce nginx-ingress`创建命名空间,或者自定义其他命名空间。 -2. 为任一节点(本示例使用的节点名为`worker2`,IP为`192.168.8.160`)打上标签,以运行上述YAML文件中名为`nginx-ingress-controller`的DaemonSet。 +2. 为任一节点(本示例使用的节点名为`worker2`,IP 为`192.168.8.160`)打上标签,以运行上述 YAML 文件中名为`nginx-ingress-controller`的 DaemonSet。 ```bash kubectl label node worker2 nginx-ingress=true ``` -3. 执行以下命令使Nginx Ingress在集群中生效。 +3. 执行以下命令使 Nginx Ingress 在集群中生效。 ```bash kubectl create -f nginx-ingress-daemonset-hostnetwork.yaml @@ -208,9 +207,9 @@ data: daemonset.apps/nginx-ingress-controller created ``` - 成功部署Nginx Ingress后,由于Nginx Ingress中配置的网络类型为`hostNetwork`,因此用户可通过部署了Nginx Ingress的节点的IP(`192.168.8.160`)和外部端口(`9769`)访问Nebula Graph服务。 + 成功部署 Nginx Ingress 后,由于 Nginx Ingress 中配置的网络类型为`hostNetwork`,因此用户可通过部署了 Nginx Ingress 的节点的 IP(`192.168.8.160`)和外部端口(`9769`)访问 Nebula Graph 服务。 -4. 执行以下命令部署连接Nebula Graph服务的Console并通过宿主机IP(本示例为`192.168.8.160`)和上述配置的外部端口访问Nebula Graph服务。 +4. 执行以下命令部署连接 Nebula Graph 服务的 Console 并通过宿主机 IP(本示例为`192.168.8.160`)和上述配置的外部端口访问 Nebula Graph 服务。 ```bash kubectl run -ti --image vesoft/nebula-console:{{console.branch}} --restart=Never -- -addr -port -u -p @@ -222,11 +221,11 @@ data: kubectl run -ti --image vesoft/nebula-console:{{console.branch}} --restart=Never -- nebula-console -addr 192.168.8.160 -port 9769 -u root -p vesoft ``` - - `--image`:为连接Nebula Graph的工具Nebula Console的镜像。 - - ``:自定义的Pod名称。本示例为`nebula-console`。 - - `-addr`:部署Nginx Ingress的节点IP,本示例为`192.168.8.160`。 + - `--image`:为连接 Nebula Graph 的工具 Nebula Console 的镜像。 + - ``:自定义的 Pod 名称。本示例为`nebula-console`。 + - `-addr`:部署 Nginx Ingress 的节点 IP,本示例为`192.168.8.160`。 - `-port`:外网访问使用的的端口。本示例设置为`9769`。 - - `-u`:Nebula Graph账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为root)。 + - `-u`:Nebula Graph 账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为 root)。 - `-p`:用户名对应的密码。未启用身份认证时,密码可以填写任意字符。 如果返回以下内容,说明成功连接数据库: diff --git a/docs-2.0/nebula-operator/5.operator-failover.md b/docs-2.0/nebula-operator/5.operator-failover.md index 51b2509a680..338acea7617 100644 --- a/docs-2.0/nebula-operator/5.operator-failover.md +++ b/docs-2.0/nebula-operator/5.operator-failover.md @@ -1,25 +1,25 @@ # 故障自愈 -Nebula Operator调用Nebula Graph集群提供的接口,动态地感知服务是否正常运行。当Nebula Graph集群中某一组件停止运行时,Nebula Operator会自动地进行容错处理。本文通过删除Nebula Graph集群中1个Storage服务Pod,模拟集群故障为例,说明Nebular Operator如何进行故障自愈。 +Nebula Operator 调用 Nebula Graph 集群提供的接口,动态地感知服务是否正常运行。当 Nebula Graph 集群中某一组件停止运行时,Nebula Operator 会自动地进行容错处理。本文通过删除 Nebula Graph 集群中 1 个 Storage 服务 Pod,模拟集群故障为例,说明 Nebular Operator 如何进行故障自愈。 ## 前提条件 -[安装Nebula Operator](2.deploy-nebula-operator.md) +[安装 Nebula Operator](2.deploy-nebula-operator.md) ## 操作步骤 -1. 创建Nebula Graph集群。具体步骤参考[使用Kubectl部署Nebula Graph集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)或者[使用Helm部署Nebula Graph集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 +1. 创建 Nebula Graph 集群。具体步骤参考 [使用 Kubectl 部署 Nebula Graph 集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md) 或者 [使用 Helm 部署 Nebula Graph 集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 -2. 待所有Pods都处于`Running`状态时,模拟故障,删除名为`-storaged-2` Pod。 +2. 待所有 Pods 都处于`Running`状态时,模拟故障,删除名为`-storaged-2` Pod。 ```bash kubectl delete pod -storaged-2 --now ``` -``为Nebula Graph集群的名称。 +``为 Nebula Graph 集群的名称。 -3. Nebula Operator自动创建名为`-storaged-2`的Pod,以修复故障。 +3. Nebula Operator 自动创建名为`-storaged-2`的 Pod,以修复故障。 - 执行`kubectl get pods`查看`-storaged-2`Pod的创建状态。 + 执行`kubectl get pods`查看`-storaged-2`Pod 的创建状态。 ```bash ... diff --git a/docs-2.0/nebula-operator/6.get-started-with-operator.md b/docs-2.0/nebula-operator/6.get-started-with-operator.md index aea31850798..f422d82d774 100644 --- a/docs-2.0/nebula-operator/6.get-started-with-operator.md +++ b/docs-2.0/nebula-operator/6.get-started-with-operator.md @@ -1,10 +1,10 @@ # 使用流程 -使用Nebula Operator访问Nebula Graph集群服务的流程如下: +使用 Nebula Operator 访问 Nebula Graph 集群服务的流程如下: -1. [安装Nebula Operator](2.deploy-nebula-operator.md)。 -2. 创建Nebula Graph集群。 +1. [安装 Nebula Operator](2.deploy-nebula-operator.md)。 +2. 创建 Nebula Graph 集群。 - 具体步骤参考[使用Kubectl部署Nebula Graph集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)或者[使用Helm部署Nebula Graph集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 + 具体步骤参考 [使用 Kubectl 部署 Nebula Graph 集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md) 或者 [使用 Helm 部署 Nebula Graph 集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 -3. [连接Nebula Graph服务](4.connect-to-nebula-graph-service.md)。 +3. [连接 Nebula Graph 服务](4.connect-to-nebula-graph-service.md)。 diff --git a/docs-2.0/nebula-operator/7.operator-faq.md b/docs-2.0/nebula-operator/7.operator-faq.md index eeedd78dcfc..b8e148587b6 100644 --- a/docs-2.0/nebula-operator/7.operator-faq.md +++ b/docs-2.0/nebula-operator/7.operator-faq.md @@ -1,16 +1,16 @@ # 常见问题 -## Nebula Operator支持v1.x版本的Nebula Graph吗? +## Nebula Operator 支持 v1.x 版本的 Nebula Graph 吗? -不支持,因为v1.x版本的Nebula Graph不支持DNS,而Nebula Operator需要使用DNS。 +不支持,因为 v1.x 版本的 Nebula Graph 不支持 DNS,而 Nebula Operator 需要使用 DNS。 -## Nebula Operator是否支持滚动升级Nebula Graph? +## Nebula Operator 是否支持滚动升级 Nebula Graph? -只支持升级2.5.x版本的Nebula Graph至2.6.x。 +只支持升级 2.5.x 版本的 Nebula Graph 至 2.6.x。 ## 使用本地存储是否可以保证集群稳定性? -无法保证。使用本地存储意味着Pod被绑定到一个特定的节点,Nebula Operator目前不支持在绑定的节点发生故障时进行故障转移。 +无法保证。使用本地存储意味着 Pod 被绑定到一个特定的节点,Nebula Operator 目前不支持在绑定的节点发生故障时进行故障转移。 ## 扩缩容集群时,如何确保稳定性? diff --git a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.1.custom-conf-parameter.md b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.1.custom-conf-parameter.md index 940f7fd3318..10cec10fc12 100644 --- a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.1.custom-conf-parameter.md +++ b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.1.custom-conf-parameter.md @@ -1,10 +1,10 @@ -# 自定义Nebula Graph集群的配置参数 +# 自定义 Nebula Graph 集群的配置参数 -Nebula Graph集群中Meta、Storage、Graph服务都有各自的配置,其在用户创建的CR实例(Nebula Graph集群)的YAML文件中被定义为`config`。`config`中的设置会被映射并加载到对应服务的ConfigMap中。 +Nebula Graph 集群中 Meta、Storage、Graph 服务都有各自的配置,其在用户创建的 CR 实例(Nebula Graph 集群)的 YAML 文件中被定义为`config`。`config`中的设置会被映射并加载到对应服务的 ConfigMap 中。 !!! note - 暂不支持通过Helm自定义Nebula Graph集群的配置参数。 + 暂不支持通过 Helm 自定义 Nebula Graph 集群的配置参数。 `config`结构如下: @@ -14,12 +14,11 @@ Config map[string]string `json:"config,omitempty"` ## 前提条件 -已使用K8s创建一个集群。具体步骤,参见[使用Kubectl创建Nebula Graph集群](../3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 - +已使用 K8s 创建一个集群。具体步骤,参见 [使用 Kubectl 创建 Nebula Graph 集群](../3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 ## 操作步骤 -以下示例使用名为`nebula`的集群说明如何在YAML中为集群的Graph服务配置`config`: +以下示例使用名为`nebula`的集群说明如何在 YAML 中为集群的 Graph 服务配置`config`: 1. 执行以下命令进入`nebula`集群的编辑页面。 @@ -27,7 +26,7 @@ Config map[string]string `json:"config,omitempty"` kubectl edit nebulaclusters.apps.nebula-graph.io nebula ``` -2. 在YAML文件的`spec.graphd.config`配置项中,添加`enable_authorize`和`auth_type`。 +2. 在 YAML 文件的`spec.graphd.config`配置项中,添加`enable_authorize`和`auth_type`。 ```yaml apiVersion: apps.nebula-graph.io/v1alpha1 @@ -52,15 +51,14 @@ Config map[string]string `json:"config,omitempty"` requests: storage: 2Gi storageClassName: gp2 - config: //为Graph服务自定义参数。 + config: //为 Graph 服务自定义参数。 "enable_authorize": "true" "auth_type": "password" ... ``` -在自定义参数`enable_authorize`和`auth_type`后,Graph服务对应的ConfigMap(`nebula-graphd`)中的配置将被覆盖。 +在自定义参数`enable_authorize`和`auth_type`后,Graph 服务对应的 ConfigMap(`nebula-graphd`)中的配置将被覆盖。 ## 更多信息 -有关Meta、Storage、Graph服务的配置参数的详细介绍,参见[服务配置文件](../../5.configurations-and-logs/1.configurations/1.configurations.md)。 - +有关 Meta、Storage、Graph 服务的配置参数的详细介绍,参见 [服务配置文件](../../5.configurations-and-logs/1.configurations/1.configurations.md)。 diff --git a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.2.pv-reclaim.md b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.2.pv-reclaim.md index 5c6bb49d6f8..32a38c66892 100644 --- a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.2.pv-reclaim.md +++ b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.2.pv-reclaim.md @@ -1,14 +1,14 @@ -# 回收PV +# 回收 PV -Nebula Operator使用持久化卷PV(Persistent Volume)和持久化卷声明PVC(Persistent Volume Claim)来存储持久化数据。如果用户不小心删除了一个Nebula Graph集群,PV和PVC对象及其数据仍可保留,以确保数据安全。 +Nebula Operator 使用持久化卷 PV(Persistent Volume)和持久化卷声明 PVC(Persistent Volume Claim)来存储持久化数据。如果用户不小心删除了一个 Nebula Graph 集群,PV 和 PVC 对象及其数据仍可保留,以确保数据安全。 -用户可以在集群的CR实例的配置文件中通过参数`enablePVReclaim`定义是否回收PV。 +用户可以在集群的 CR 实例的配置文件中通过参数`enablePVReclaim`定义是否回收 PV。 -如果用户需要删除图空间并想保留相关数据,可以更新Nebula Graph集群,即设置`enablePVReclaim`为`true`。 +如果用户需要删除图空间并想保留相关数据,可以更新 Nebula Graph 集群,即设置`enablePVReclaim`为`true`。 ## 前提条件 -已使用K8s创建一个集群。具体步骤,参见[使用Kubectl创建Nebula Graph集群](../3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 +已使用 K8s 创建一个集群。具体步骤,参见 [使用 Kubectl 创建 Nebula Graph 集群](../3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 ## 操作步骤 @@ -20,7 +20,7 @@ Nebula Operator使用持久化卷PV(Persistent Volume)和持久化卷声明P kubectl edit nebulaclusters.apps.nebula-graph.io nebula ``` -2. 在YAML文件的`spec`配置项中,添加`enablePVReclaim`并设置其值为`true`。 +2. 在 YAML 文件的`spec`配置项中,添加`enablePVReclaim`并设置其值为`true`。 ```yaml apiVersion: apps.nebula-graph.io/v1alpha1 @@ -28,7 +28,7 @@ Nebula Operator使用持久化卷PV(Persistent Volume)和持久化卷声明P metadata: name: nebula spec: - enablePVReclaim: true //设置其值为true。 + enablePVReclaim: true //设置其值为 true。 graphd: image: vesoft/nebula-graphd logVolumeClaim: diff --git a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.3.balance-data-when-scaling-storage.md b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.3.balance-data-when-scaling-storage.md index 70f9e9bf34c..863f7ea3029 100644 --- a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.3.balance-data-when-scaling-storage.md +++ b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.3.balance-data-when-scaling-storage.md @@ -1,14 +1,14 @@ -# 均衡扩容后的Storage数据 +# 均衡扩容后的 Storage 数据 -用户在扩容Storage服务后,可以自主决定是否均衡Storage服务中的数据。本文介绍如何设置均衡Storage数据。 +用户在扩容 Storage 服务后,可以自主决定是否均衡 Storage 服务中的数据。本文介绍如何设置均衡 Storage 数据。 -Nebula Graph的Storage服务的扩容分为两个阶段,第一个阶段等待所有扩容的Pods为`Ready`的状态;第二个阶段执行`BALANCE DATA`和`BALANCE LEADER`命令均衡数据。这两个阶段将控制器副本的扩容过程与均衡数据过程解耦,使用户可以选择在低流量时进行均衡数据操作,有效降低数据迁移对在线服务的影响。 +Nebula Graph 的 Storage 服务的扩容分为两个阶段,第一个阶段等待所有扩容的 Pods 为`Ready`的状态;第二个阶段执行`BALANCE DATA`和`BALANCE LEADER`命令均衡数据。这两个阶段将控制器副本的扩容过程与均衡数据过程解耦,使用户可以选择在低流量时进行均衡数据操作,有效降低数据迁移对在线服务的影响。 -用户可以在集群的CR实例的配置文件中通过参数`enableAutoBalance`来控制是否自动均衡数据。 +用户可以在集群的 CR 实例的配置文件中通过参数`enableAutoBalance`来控制是否自动均衡数据。 ## 前提条件 -已使用K8s创建一个集群。具体步骤,参见[使用Kubectl创建Nebula Graph集群](../3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 +已使用 K8s 创建一个集群。具体步骤,参见 [使用 Kubectl 创建 Nebula Graph 集群](../3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 ## 操作步骤 @@ -20,7 +20,7 @@ Nebula Graph的Storage服务的扩容分为两个阶段,第一个阶段等待 kubectl edit nebulaclusters.apps.nebula-graph.io nebula ``` -2. 在YAML文件的`spec.storaged`配置项中,添加`enableAutoBalance`并设置其值为`true`。 +2. 在 YAML 文件的`spec.storaged`配置项中,添加`enableAutoBalance`并设置其值为`true`。 ```yaml apiVersion: apps.nebula-graph.io/v1alpha1 @@ -73,7 +73,7 @@ Nebula Graph的Storage服务的扩容分为两个阶段,第一个阶段等待 version: v1 schedulerName: default-scheduler storaged: - enableAutoBalance: true //将其值设置为true时表示扩容后自动均衡Storage数据。 + enableAutoBalance: true //将其值设置为 true 时表示扩容后自动均衡 Storage 数据。 dataVolumeClaim: resources: requests: @@ -97,8 +97,8 @@ Nebula Graph的Storage服务的扩容分为两个阶段,第一个阶段等待 ... ``` - - 当设置`enableAutoBalance`的值为`true`时,表示扩容后自动均衡Storage数据。 + - 当设置`enableAutoBalance`的值为`true`时,表示扩容后自动均衡 Storage 数据。 - - 当设置`enableAutoBalance`的值为`false`时,表示扩容后不会均衡Storage数据。 + - 当设置`enableAutoBalance`的值为`false`时,表示扩容后不会均衡 Storage 数据。 - - 当不设置`enableAutoBalance`参数时,默认扩容Storage后系统不会自动均衡Storage数据。 \ No newline at end of file + - 当不设置`enableAutoBalance`参数时,默认扩容 Storage 后系统不会自动均衡 Storage 数据。 \ No newline at end of file diff --git a/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md b/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md index f11b56124a1..2a1df6d4795 100644 --- a/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md +++ b/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md @@ -1,23 +1,22 @@ -# 升级Nebula Graph集群 +# 升级 Nebula Graph 集群 -本文介绍如何升级通过Nebula Operator创建的Nebula Graph集群。 +本文介绍如何升级通过 Nebula Operator 创建的 Nebula Graph 集群。 ## 使用限制 -- 只支持使用Nebula Operator创建的Nebula Graph集群。 +- 只支持使用 Nebula Operator 创建的 Nebula Graph 集群。 -- 只支持升级Nebula Graph 2.5.x至2.6.x版本。 +- 只支持升级 Nebula Graph 2.5.x 至 2.6.x 版本。 -- 不支持升级通过0.8.0版Operator创建的集群。 +- 不支持升级通过 0.8.0 版 Operator 创建的集群。 - -## 使用Kubectl升级Nebula Graph集群 +## 使用 Kubectl 升级 Nebula Graph 集群 ### 前提条件 -已创建Nebula Graph集群。具体步骤,参见[使用Kubectl创建Nebula Graph集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 +已创建 Nebula Graph 集群。具体步骤,参见 [使用 Kubectl 创建 Nebula Graph 集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 -本文示例中待升级的Nebula Graph版本为2.5.1,其YAML文件名为`apps_v1alpha1_nebulacluster.yaml`。 +本文示例中待升级的 Nebula Graph 版本为 2.5.1,其 YAML 文件名为`apps_v1alpha1_nebulacluster.yaml`。 ### 操作步骤 @@ -35,9 +34,9 @@ 3 vesoft/nebula-storaged:v2.5.1 ``` -2. 编辑`apps_v1alpha1_nebulacluster.yaml`并将所有`version`的值从v2.5.1修改至{{nebula.branch}}。 +2. 编辑`apps_v1alpha1_nebulacluster.yaml`并将所有`version`的值从 v2.5.1 修改至{{nebula.branch}}。 - 修改后的YAML文件内容如下: + 修改后的 YAML 文件内容如下: ```yaml apiVersion: apps.nebula-graph.io/v1alpha1 @@ -55,7 +54,7 @@ memory: "1Gi" replicas: 1 image: vesoft/nebula-graphd - version: {{nebula.branch}} //将值从v2.5.1修改至{{nebula.branch}}。 + version: {{nebula.branch}} //将值从 v2.5.1 修改至{{nebula.branch}}。 service: type: NodePort externalTrafficPolicy: Local @@ -74,7 +73,7 @@ memory: "1Gi" replicas: 1 image: vesoft/nebula-metad - version: {{nebula.branch}} //将值从v2.5.1修改至{{nebula.branch}}。 + version: {{nebula.branch}} //将值从 v2.5.1 修改至{{nebula.branch}}。 dataVolumeClaim: resources: requests: @@ -95,7 +94,7 @@ memory: "1Gi" replicas: 3 image: vesoft/nebula-storaged - version: {{nebula.branch}} //将值从v2.5.1修改至{{nebula.branch}}。 + version: {{nebula.branch}} //将值从 v2.5.1 修改至{{nebula.branch}}。 dataVolumeClaim: resources: requests: @@ -113,13 +112,13 @@ imagePullPolicy: Always ``` -3. 执行以下命令将版本升级的更新应用于集群CR中。 +3. 执行以下命令将版本升级的更新应用于集群 CR 中。 ```bash kubectl apply -f apps_v1alpha1_nebulacluster.yaml ``` -4. 等待约2分钟后,执行以下命令可查看到服务的镜像版本变更为{{nebula.branch}}。 +4. 等待约 2 分钟后,执行以下命令可查看到服务的镜像版本变更为{{nebula.branch}}。 ```bash kubectl get pods -l app.kubernetes.io/cluster=nebula -o jsonpath="{.items[*].spec.containers[*].image}" |tr -s '[[:space:]]' '\n' |sort |uniq -c @@ -133,30 +132,30 @@ 3 vesoft/nebula-storaged:{{nebula.branch}} ``` -## 使用Helm升级Nebula Graph集群 +## 使用 Helm 升级 Nebula Graph 集群 ### 前提条件 -已创建Nebula Graph集群。具体步骤,参见[使用Helm创建Nebula Graph集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 +已创建 Nebula Graph 集群。具体步骤,参见 [使用 Helm 创建 Nebula Graph 集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 ### 操作步骤 -1. 更新Helm仓库,拉取最新的仓库资源。 +1. 更新 Helm 仓库,拉取最新的仓库资源。 ```bash helm repo update ``` -2. 配置Helm的环境变量。 +2. 配置 Helm 的环境变量。 ```bash - export NEBULA_CLUSTER_NAME=nebula # Nebula Graph集群的名字。 - export NEBULA_CLUSTER_NAMESPACE=nebula # Nebula Graph集群所处的命名空间的名字。 + export NEBULA_CLUSTER_NAME=nebula # Nebula Graph 集群的名字。 + export NEBULA_CLUSTER_NAMESPACE=nebula # Nebula Graph 集群所处的命名空间的名字。 ``` -3. 升级Nebula Graph集群。 +3. 升级 Nebula Graph 集群。 - 例如升级至{{nebula.branch}}Nebula Graph集群的命令如下。 + 例如升级至{{nebula.branch}}Nebula Graph 集群的命令如下。 ```bash helm upgrade "${NEBULA_CLUSTER_NAME}" nebula-operator/nebula-cluster \ diff --git a/docs-2.0/nebula-spark-connector.md b/docs-2.0/nebula-spark-connector.md index 3d5309ebd3a..14342e2da64 100644 --- a/docs-2.0/nebula-spark-connector.md +++ b/docs-2.0/nebula-spark-connector.md @@ -1,28 +1,28 @@ # Nebula Spark Connector -Nebula Spark Connector是一个Spark连接器,提供通过Spark标准形式读写Nebula Graph数据的能力。Nebula Spark Connector由Reader和Writer两部分组成。 +Nebula Spark Connector 是一个 Spark 连接器,提供通过 Spark 标准形式读写 Nebula Graph 数据的能力。Nebula Spark Connector 由 Reader 和 Writer 两部分组成。 - Reader - 提供一个Spark SQL接口,用户可以使用该接口编程读取Nebula Graph图数据,单次读取一个点或Edge type的数据,并将读取的结果组装成Spark的DataFrame。 + 提供一个 Spark SQL 接口,用户可以使用该接口编程读取 Nebula Graph 图数据,单次读取一个点或 Edge type 的数据,并将读取的结果组装成 Spark 的 DataFrame。 - Writer - 提供一个Spark SQL接口,用户可以使用该接口编程将DataFrame格式的数据逐条或批量写入Nebula Graph。 + 提供一个 Spark SQL 接口,用户可以使用该接口编程将 DataFrame 格式的数据逐条或批量写入 Nebula Graph。 -更多使用说明请参见[Nebula Spark Connector](https://github.com/vesoft-inc/nebula-spark-connector/blob/{{sparkconnector.branch}}/README_CN.md)。 +更多使用说明请参见 [Nebula Spark Connector](https://github.com/vesoft-inc/nebula-spark-connector/blob/{{sparkconnector.branch}}/README_CN.md)。 ## 适用场景 -Nebula Spark Connector适用于以下场景: +Nebula Spark Connector 适用于以下场景: -- 在不同的Nebula Graph集群之间迁移数据。 +- 在不同的 Nebula Graph 集群之间迁移数据。 -- 在同一个Nebula Graph集群内不同图空间之间迁移数据。 +- 在同一个 Nebula Graph 集群内不同图空间之间迁移数据。 -- Nebula Graph与其他数据源之间迁移数据。 +- Nebula Graph 与其他数据源之间迁移数据。 -- 结合[Nebula Algorithm](nebula-algorithm.md)进行图计算。 +- 结合 [Nebula Algorithm](nebula-algorithm.md) 进行图计算。 ## 特性 @@ -30,13 +30,13 @@ Nebula Spark Connector {{sparkconnector.release}}版本特性如下: - 提供多种连接配置项,如超时时间、连接重试次数、执行重试次数等。 -- 提供多种数据配置项,如写入数据时设置对应列为点ID、起始点ID、目的点ID或属性。 +- 提供多种数据配置项,如写入数据时设置对应列为点 ID、起始点 ID、目的点 ID 或属性。 -- Reader支持无属性读取和全属性读取。 +- Reader 支持无属性读取和全属性读取。 -- Reader支持将Nebula Graph数据读取成Graphx的VertexRDD和EdgeRDD,支持非Long型点ID。 +- Reader 支持将 Nebula Graph 数据读取成 Graphx 的 VertexRDD 和 EdgeRDD,支持非 Long 型点 ID。 -- 统一了SparkSQL的扩展数据源,统一采用DataSourceV2进行Nebula Graph数据扩展。 +- 统一了 SparkSQL 的扩展数据源,统一采用 DataSourceV2 进行 Nebula Graph 数据扩展。 - 支持`insert`、`update`和`delete`三种写入模式。`insert`模式会插入(覆盖)数据,`update`模式仅会更新已存在的数据,`delete`模式只删除数据。 @@ -44,7 +44,7 @@ Nebula Spark Connector {{sparkconnector.release}}版本特性如下: [Release](https://github.com/vesoft-inc/nebula-spark-connector/releases/tag/{{sparkconnector.tag}}) -## 获取Nebula Spark Connector +## 获取 Nebula Spark Connector ### 编译打包 @@ -72,27 +72,27 @@ Nebula Spark Connector {{sparkconnector.release}}版本特性如下: 编译完成后,在目录`nebula-spark-connector/nebula-spark-connector/target/`下生成类似文件`nebula-spark-connector-{{sparkconnector.release}}-SHANPSHOT.jar`。 -### Maven远程仓库下载 +### Maven 远程仓库下载 [下载地址](https://repo1.maven.org/maven2/com/vesoft/nebula-spark-connector/) ## 使用方法 -使用Nebula Spark Connector读写Nebula Graph数据库时,只需要编写以下代码即可实现。 +使用 Nebula Spark Connector 读写 Nebula Graph 数据库时,只需要编写以下代码即可实现。 ```scala -# 从Nebula Graph读取点边数据。 +# 从 Nebula Graph 读取点边数据。 spark.read.nebula().loadVerticesToDF() spark.read.nebula().loadEdgesToDF() -# 将dataframe数据作为点和边写入Nebula Graph中。 +# 将 dataframe 数据作为点和边写入 Nebula Graph 中。 dataframe.write.nebula().writeVertices() dataframe.write.nebula().writeEdges() ``` `nebula()`接收两个配置参数,包括连接配置和读写配置。 -### 从Nebula Graph读取数据 +### 从 Nebula Graph 读取数据 ```scala val config = NebulaConnectionConfig @@ -126,27 +126,27 @@ val nebulaReadEdgeConfig: ReadNebulaConfig = ReadNebulaConfig val edge = spark.read.nebula(config, nebulaReadEdgeConfig).loadEdgesToDF() ``` -- `NebulaConnectionConfig`是连接Nebula Graph的配置,说明如下。 +- `NebulaConnectionConfig`是连接 Nebula Graph 的配置,说明如下。 |参数|是否必须|说明| |:---|:---|:---| - |`withMetaAddress` |是| 所有Meta服务的地址,多个地址用英文逗号(,)隔开,格式为`ip1:port1,ip2:port2,...`。读取数据不需要配置`withGraphAddress`。 | - |`withConnectionRetry` |否| Nebula Java Client连接Nebula Graph的重试次数。默认值为`1`。 | - |`withExecuteRetry` |否| Nebula Java Client执行查询语句的重试次数。默认值为`1`。 | - |`withTimeout` |否| Nebula Java Client请求响应的超时时间。默认值为`6000`,单位:毫秒(ms)。 | + |`withMetaAddress` |是| 所有 Meta 服务的地址,多个地址用英文逗号(,)隔开,格式为`ip1:port1,ip2:port2,...`。读取数据不需要配置`withGraphAddress`。 | + |`withConnectionRetry` |否| Nebula Java Client 连接 Nebula Graph 的重试次数。默认值为`1`。 | + |`withExecuteRetry` |否| Nebula Java Client 执行查询语句的重试次数。默认值为`1`。 | + |`withTimeout` |否| Nebula Java Client 请求响应的超时时间。默认值为`6000`,单位:毫秒(ms)。 | -- `ReadNebulaConfig`是读取Nebula Graph数据的配置,说明如下。 +- `ReadNebulaConfig`是读取 Nebula Graph 数据的配置,说明如下。 |参数|是否必须|说明| |:---|:---|:---| - |`withSpace` |是| Nebula Graph图空间名称。 | - |`withLabel` |是| Nebula Graph图空间内的Tag或Edge type名称。 | + |`withSpace` |是| Nebula Graph 图空间名称。 | + |`withLabel` |是| Nebula Graph 图空间内的 Tag 或 Edge type 名称。 | |`withNoColumn` |否| 是否不读取属性。默认值为`false`,表示读取属性。取值为`true`时,表示不读取属性,此时`withReturnCols`配置无效。 | |`withReturnCols` |否| 配置要读取的点或边的属性集。格式为`List(property1,property2,...)`,默认值为`List()`,表示读取全部属性。 | - |`withLimit` |否| 配置Nebula Java Storage Client一次从服务端读取的数据行数。默认值为1000。 | - |`withPartitionNum` |否| 配置读取Nebula Graph数据时Spark的分区数。默认值为100。该值的配置最好不超过图空间的的分片数量(partition_num)。| + |`withLimit` |否| 配置 Nebula Java Storage Client 一次从服务端读取的数据行数。默认值为 1000。 | + |`withPartitionNum` |否| 配置读取 Nebula Graph 数据时 Spark 的分区数。默认值为 100。该值的配置最好不超过图空间的的分片数量(partition_num)。| -### 向Nebula Graph写入数据 +### 向 Nebula Graph 写入数据 ```scala val config = NebulaConnectionConfig @@ -208,25 +208,25 @@ val nebulaWriteVertexConfig = WriteNebulaVertexConfig df.write.nebula(config, nebulaWriteVertexConfig).writeVertices() ``` -- `NebulaConnectionConfig`是连接Nebula Graph的配置,说明如下。 +- `NebulaConnectionConfig`是连接 Nebula Graph 的配置,说明如下。 |参数|是否必须|说明| |:---|:---|:---| - |`withMetaAddress` |是| 所有Meta服务的地址,多个地址用英文逗号(,)隔开,格式为`ip1:port1,ip2:port2,...`。 | - |`withGraphAddress` |是| Graph服务的地址,多个地址用英文逗号(,)隔开,格式为`ip1:port1,ip2:port2,...`。 | - |`withConnectionRetry` |否| Nebula Java Client连接Nebula Graph的重试次数。默认值为`1`。 | + |`withMetaAddress` |是| 所有 Meta 服务的地址,多个地址用英文逗号(,)隔开,格式为`ip1:port1,ip2:port2,...`。 | + |`withGraphAddress` |是| Graph 服务的地址,多个地址用英文逗号(,)隔开,格式为`ip1:port1,ip2:port2,...`。 | + |`withConnectionRetry` |否| Nebula Java Client 连接 Nebula Graph 的重试次数。默认值为`1`。 | - `WriteNebulaVertexConfig`是写入点的配置,说明如下。 |参数|是否必须|说明| |:---|:---|:---| - |`withSpace` |是| Nebula Graph图空间名称。 | - |`withTag` |是| 写入点时需要关联的Tag名称。 | - |`withVidField` |是| DataFrame中作为点ID的列。 | - |`withVidPolicy` |否| 写入点ID时,采用的映射函数,Nebula Graph 2.x仅支持HASH。默认不做映射。 | - |`withVidAsProp` |否| DataFrame中作为点ID的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保Tag中有和`VidField`相同的属性名。 | - |`withUser` |否| Nebula Graph用户名。若未开启[身份验证](7.data-security/1.authentication/1.authentication.md),无需配置用户名和密码。 | - |`withPasswd` |否| Nebula Graph用户名对应的密码。 | + |`withSpace` |是| Nebula Graph 图空间名称。 | + |`withTag` |是| 写入点时需要关联的 Tag 名称。 | + |`withVidField` |是| DataFrame 中作为点 ID 的列。 | + |`withVidPolicy` |否| 写入点 ID 时,采用的映射函数,Nebula Graph 2.x 仅支持 HASH。默认不做映射。 | + |`withVidAsProp` |否| DataFrame 中作为点 ID 的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保 Tag 中有和`VidField`相同的属性名。 | + |`withUser` |否| Nebula Graph 用户名。若未开启 [身份验证](7.data-security/1.authentication/1.authentication.md),无需配置用户名和密码。 | + |`withPasswd` |否| Nebula Graph 用户名对应的密码。 | |`withBatch` |是| 一次写入的数据行数。默认值为`1000`. | |`withWriteMode`|否|写入模式。可选值为`insert`和`update`。默认为`insert`。| @@ -234,17 +234,17 @@ df.write.nebula(config, nebulaWriteVertexConfig).writeVertices() |参数|是否必须|说明| |:---|:---|:---| - |`withSpace` |是| Nebula Graph图空间名称。 | - |`withEdge` |是| 写入边时需要关联的Edge type名称。 | - |`withSrcIdField` |是| DataFrame中作为起始点的列。 | - |`withSrcPolicy` |否| 写入起始点时,采用的映射函数,Nebula Graph 2.x仅支持HASH。默认不做映射。 | - |`withDstIdField` |是| DataFrame中作为目的点的列。 | - |`withDstPolicy` |否| 写入目的点时,采用的映射函数,Nebula Graph 2.x仅支持HASH。默认不做映射。 | - |`withRankField` |否| DataFrame中作为rank的列。默认不写入rank。 | - |`withSrcAsProperty` |否| DataFrame中作为起始点的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保Edge type中有和`SrcIdField`相同的属性名。 | - |`withDstAsProperty` |否| DataFrame中作为目的点的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保Edge type中有和`DstIdField`相同的属性名。 | - |`withRankAsProperty` |否| DataFrame中作为rank的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保Edge type中有和`RankField`相同的属性名。 | - |`withUser` |否| Nebula Graph用户名。若未开启[身份验证](7.data-security/1.authentication/1.authentication.md),无需配置用户名和密码。 | - |`withPasswd` |否| Nebula Graph用户名对应的密码。 | + |`withSpace` |是| Nebula Graph 图空间名称。 | + |`withEdge` |是| 写入边时需要关联的 Edge type 名称。 | + |`withSrcIdField` |是| DataFrame 中作为起始点的列。 | + |`withSrcPolicy` |否| 写入起始点时,采用的映射函数,Nebula Graph 2.x 仅支持 HASH。默认不做映射。 | + |`withDstIdField` |是| DataFrame 中作为目的点的列。 | + |`withDstPolicy` |否| 写入目的点时,采用的映射函数,Nebula Graph 2.x 仅支持 HASH。默认不做映射。 | + |`withRankField` |否| DataFrame 中作为 rank 的列。默认不写入 rank。 | + |`withSrcAsProperty` |否| DataFrame 中作为起始点的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保 Edge type 中有和`SrcIdField`相同的属性名。 | + |`withDstAsProperty` |否| DataFrame 中作为目的点的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保 Edge type 中有和`DstIdField`相同的属性名。 | + |`withRankAsProperty` |否| DataFrame 中作为 rank 的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保 Edge type 中有和`RankField`相同的属性名。 | + |`withUser` |否| Nebula Graph 用户名。若未开启 [身份验证](7.data-security/1.authentication/1.authentication.md),无需配置用户名和密码。 | + |`withPasswd` |否| Nebula Graph 用户名对应的密码。 | |`withBatch` |是| 一次写入的数据行数。默认值为`1000`. | |`withWriteMode`|否|写入模式。可选值为`insert`和`update`。默认为`insert`。| diff --git a/docs-2.0/nebula-studio/about-studio/st-ug-check-updates.md b/docs-2.0/nebula-studio/about-studio/st-ug-check-updates.md index c212a71a37d..af42e4d7d31 100644 --- a/docs-2.0/nebula-studio/about-studio/st-ug-check-updates.md +++ b/docs-2.0/nebula-studio/about-studio/st-ug-check-updates.md @@ -13,4 +13,3 @@ Studio 处于持续开发状态中。用户可以通过 [Studio 发布版本更 成功连接 Studio 后,用户可以在页面右上角点击版本号,再点击 **新发布**,前往查看 Studio 的版本更新记录。 ![在页面右上角点击版本号,并在弹出菜单里点击“新发布”](../figs/st-ug-014.png "查看 Studio 版本更新记录") - diff --git a/docs-2.0/nebula-studio/about-studio/st-ug-release-note.md b/docs-2.0/nebula-studio/about-studio/st-ug-release-note.md index a299368d5bc..6d5043aafd3 100644 --- a/docs-2.0/nebula-studio/about-studio/st-ug-release-note.md +++ b/docs-2.0/nebula-studio/about-studio/st-ug-release-note.md @@ -1,4 +1,4 @@ -# Studio版本更新说明 +# Studio 版本更新说明 ## v3.1.0(2021.10.29) diff --git a/docs-2.0/nebula-studio/about-studio/st-ug-shortcuts.md b/docs-2.0/nebula-studio/about-studio/st-ug-shortcuts.md index 99384e9fb31..a610402ab11 100644 --- a/docs-2.0/nebula-studio/about-studio/st-ug-shortcuts.md +++ b/docs-2.0/nebula-studio/about-studio/st-ug-shortcuts.md @@ -12,4 +12,3 @@ | 在 **图探索** 页面撤销操作 | 按 Shift + ‘z’ 键 | | 在 **图探索** 页面删除图 | 选中后按 Shift + ‘del’ 键 | | 在 **图探索** 页面对某个点快速拓展 | 鼠标双击 或 按 Shift + Enter 键 | - diff --git a/docs-2.0/nebula-studio/about-studio/st-ug-what-is-graph-studio.md b/docs-2.0/nebula-studio/about-studio/st-ug-what-is-graph-studio.md index f82382789f3..4b87df0b58e 100644 --- a/docs-2.0/nebula-studio/about-studio/st-ug-what-is-graph-studio.md +++ b/docs-2.0/nebula-studio/about-studio/st-ug-what-is-graph-studio.md @@ -1,6 +1,6 @@ # 什么是 Nebula Graph Studio -Nebula Graph Studio(简称 Studio)是一款可以通过 Web 访问的图数据库开源可视化工具,搭配 [Nebula Graph](../../README.md) 内核使用,提供构图、数据导入、编写 nGQL 查询、图探索等一站式服务。即使没有图数据库操作经验,用户也可以快速成为图专家。用户可以在 Nebula Graph GitHub 仓库中查看最新源码,详情参见[nebula-studio](https://github.com/vesoft-inc/nebula-studio)。 +Nebula Graph Studio(简称 Studio)是一款可以通过 Web 访问的图数据库开源可视化工具,搭配 [Nebula Graph](../../README.md) 内核使用,提供构图、数据导入、编写 nGQL 查询、图探索等一站式服务。即使没有图数据库操作经验,用户也可以快速成为图专家。用户可以在 Nebula Graph GitHub 仓库中查看最新源码,详情参见 [nebula-studio](https://github.com/vesoft-inc/nebula-studio)。 ## 发行版本 @@ -47,5 +47,5 @@ Studio 具备以下功能: ## 视频 -* [图解 Nebula Studio 图探索功能](https://www.bilibili.com/video/BV1QN411Z7Vh)(3分23秒) +* [图解 Nebula Studio 图探索功能](https://www.bilibili.com/video/BV1QN411Z7Vh)(3 分 23 秒) diff --git a/docs-2.0/nebula-studio/deploy-connect/st-ug-deploy-by-helm.md b/docs-2.0/nebula-studio/deploy-connect/st-ug-deploy-by-helm.md index 8cf4de946dd..aa1c5d3fb83 100644 --- a/docs-2.0/nebula-studio/deploy-connect/st-ug-deploy-by-helm.md +++ b/docs-2.0/nebula-studio/deploy-connect/st-ug-deploy-by-helm.md @@ -1,10 +1,10 @@ -# 使用Helm部署Studio +# 使用 Helm 部署 Studio -本文介绍如何在Kubernetes中使用Helm部署并启动Studio。 +本文介绍如何在 Kubernetes 中使用 Helm 部署并启动 Studio。 ## 前提条件 -安装Studio前,用户需要安装以下软件并确保安装版本的正确性: +安装 Studio 前,用户需要安装以下软件并确保安装版本的正确性: | 软件 | 版本要求 | | ------------------------------------------------------------ | --------- | @@ -13,7 +13,7 @@ ## 安装 -1. 克隆Studio的源代码到主机。 +1. 克隆 Studio 的源代码到主机。 ```bash $ git clone https://github.com/vesoft-inc/nebula-studio.git @@ -25,7 +25,7 @@ $ cd nebula-studio ``` -3. 更新并安装Nebula Graph Studio chart,命名为`my-studio`。 +3. 更新并安装 Nebula Graph Studio chart,命名为`my-studio`。 ```bash $ helm upgrade --install my-studio --set service.type=NodePort --set service.port={30070} deployment/helm @@ -44,23 +44,23 @@ $ helm uninstall my-studio ## 后续操作 -进入Studio登录界面后,用户需要连接Nebula Graph。详细信息,参考[连接数据库](st-ug-connect.md)。 +进入 Studio 登录界面后,用户需要连接 Nebula Graph。详细信息,参考 [连接数据库](st-ug-connect.md)。 -## Nebula Graph Studio chart配置参数说明 +## Nebula Graph Studio chart 配置参数说明 | 参数 | 默认值 | 描述 | |:---|:---|:---| -| replicaCount | 0 | Deployment的副本数。 | -| image.httpGateway.name | vesoft/nebula-http-gateway | nebula-http-gateway镜像的仓库地址。 | -| image.nebulaStudio.name | vesoft/nebula-graph-studio | nebula-graph-studio镜像的仓库地址。 | -| image.nginx.name | nginx | nginx镜像的仓库地址。 | -| image.httpGateway.version | v2.1.1 | nebula-http-gateway的版本。 | -| image.nebulaStudio.version | v3.1.0 | nebula-graph-studio的版本。 | -| image.nginx.version | alpine | nginx的版本。 | +| replicaCount | 0 | Deployment 的副本数。 | +| image.httpGateway.name | vesoft/nebula-http-gateway | nebula-http-gateway 镜像的仓库地址。 | +| image.nebulaStudio.name | vesoft/nebula-graph-studio | nebula-graph-studio 镜像的仓库地址。 | +| image.nginx.name | nginx | nginx 镜像的仓库地址。 | +| image.httpGateway.version | v2.1.1 | nebula-http-gateway 的版本。 | +| image.nebulaStudio.version | v3.1.0 | nebula-graph-studio 的版本。 | +| image.nginx.version | alpine | nginx 的版本。 | | service.type | ClusterIP | 服务类型,必须为`NodePort`,`ClusterIP`或`LoadBalancer`其中之一。 | -| service.port | 7001 | nebula-graph-studio中web服务的端口。 | -| resources.httpGateway | {} | nebula-http-gateway的资源限制/请求。 | -| resources.nebulaStudio | {} | nebula-studio的资源限制/请求。 | -| resources.nginx | {} | nginx的资源限制/请求。 | -| persistent.storageClassName | "" | storageClass名称,如果不指定就使用默认值。 | +| service.port | 7001 | nebula-graph-studio 中 web 服务的端口。 | +| resources.httpGateway | {} | nebula-http-gateway 的资源限制/请求。 | +| resources.nebulaStudio | {} | nebula-studio 的资源限制/请求。 | +| resources.nginx | {} | nginx 的资源限制/请求。 | +| persistent.storageClassName | "" | storageClass 名称,如果不指定就使用默认值。 | | persistent.size | 5Gi | 存储盘大小。 | diff --git a/docs-2.0/nebula-studio/deploy-connect/st-ug-deploy.md b/docs-2.0/nebula-studio/deploy-connect/st-ug-deploy.md index fcc9255ef12..64e4ceda5fa 100644 --- a/docs-2.0/nebula-studio/deploy-connect/st-ug-deploy.md +++ b/docs-2.0/nebula-studio/deploy-connect/st-ug-deploy.md @@ -1,6 +1,6 @@ # 部署 Studio 本文介绍如何在本地通过 Docker、RPM 和 tar 包部署 Studio。 @@ -15,14 +15,14 @@ Nebula Graph Studio( 以下简称 Studio )支持云端或本地部署。云 在部署 RPM 版 Studio 之前,用户需要确认以下信息: -- Nebula Graph 服务已经部署并启动。详细信息,参考[Nebula Graph 安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 Nebula Graph 安装部署")。 +- Nebula Graph 服务已经部署并启动。详细信息,参考 [Nebula Graph 安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 Nebula Graph 安装部署")。 - 使用的 Linux 发行版为 CentOS ,安装有 lsof 和版本为 v10.16.0 + 以上的 [Node.js](https://nodejs.org/zh-cn/)。 !!! note `node` 及 `npm` 命令需要安装在 `/usr/bin/`目录下,以防出现 RPM 安装时 node 命令找不到的情况。 - 例如nodejs12默认目录为`/opt/rh/rh-nodejs12`,用户可以使用以下命令建立软连接: + 例如 nodejs12 默认目录为`/opt/rh/rh-nodejs12`,用户可以使用以下命令建立软连接: ```bash $ sudo ln -s /opt/rh/rh-nodejs12/root/usr/bin/node /usr/bin/node @@ -33,20 +33,20 @@ Nebula Graph Studio( 以下简称 Studio )支持云端或本地部署。云 | 端口号 | 说明 | | ---- | ---- | - | 7001 | Studio提供web服务使用。 | - | 8080 | Nebula HTTP Gateway Client进行HTTP通信使用。 | + | 7001 | Studio 提供 web 服务使用。 | + | 8080 | Nebula HTTP Gateway Client 进行 HTTP 通信使用。 | ### 安装 -1. 根据需要选择并下载RPM包,建议选择最新版本。常用下载链接如下: +1. 根据需要选择并下载 RPM 包,建议选择最新版本。常用下载链接如下: - | 安装包 | 检验和 | Nebula版本 | + | 安装包 | 检验和 | Nebula 版本 | | ----- | ----- | ----- | | [nebula-graph-studio-{{studio.release}}.x86_64.rpm](https://oss-cdn.nebula-graph.com.cn/nebula-graph-studio/{{studio.release}}/nebula-graph-studio-{{studio.release}}.x86_64.rpm) | [nebula-graph-studio-{{studio.release}}.x86_64.rpm.sha256](https://oss-cdn.nebula-graph.com.cn/nebula-graph-studio/{{studio.release}}/nebula-graph-studio-{{studio.release}}.x86_64.rpm.sha256) | {{ nebula.release }} | -2. 使用`sudo rpm -i `命令安装RPM包。 +2. 使用`sudo rpm -i `命令安装 RPM 包。 - 例如,安装Studio {{studio.release}} 版本需要运行以下命令: + 例如,安装 Studio {{studio.release}} 版本需要运行以下命令: ```bash $ sudo rpm -i nebula-graph-studio-{{studio.release}}.x86_64.rpm @@ -59,7 +59,6 @@ Nebula Graph Studio( 以下简称 Studio )支持云端或本地部署。云 nohup: 把输出追加到"nohup.out" ``` - 3. 启动成功后,在浏览器地址栏输入 `http://ip address:7001`。 如果在浏览器窗口中能看到以下登录界面,表示已经成功部署并启动 Studio。 @@ -88,14 +87,14 @@ $ bash /usr/local/nebula-graph-studio/scripts/rpm/start.sh $ bash /usr/local/nebula-graph-studio/scripts/rpm/stop.sh ``` -如果启动服务时遇到报错报错 ERROR: bind EADDRINUSE 0.0.0.0:7001,用户可以通过以下命令查看端口7001是否被占用。 +如果启动服务时遇到报错报错 ERROR: bind EADDRINUSE 0.0.0.0:7001,用户可以通过以下命令查看端口 7001 是否被占用。 ```bash $ lsof -i:7001 ``` -如果端口被占用,且无法结束该端口上进程,用户可以通过以下命令修改Studio服务启动端口,并重新启动服务。 +如果端口被占用,且无法结束该端口上进程,用户可以通过以下命令修改 Studio 服务启动端口,并重新启动服务。 ```bash -//修改studio服务启动端口 +//修改 studio 服务启动端口 $ vi config/config.default.js //修改 @@ -108,7 +107,7 @@ $ vi config/config.default.js }; ... -//重新启动npm +//重新启动 npm $ npm run start ``` @@ -118,7 +117,7 @@ $ npm run start 在部署 tar 包安装的 Studio 之前,用户需要确认以下信息: -- Nebula Graph 服务已经部署并启动。详细信息,参考[Nebula Graph安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 Nebula Graph 安装部署")。 +- Nebula Graph 服务已经部署并启动。详细信息,参考 [Nebula Graph 安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 Nebula Graph 安装部署")。 - 使用的 Linux 上安装有版本为 v10.12.0 以上的 Node.js。 @@ -126,8 +125,8 @@ $ npm run start | 端口号 | 说明 | | ---- | ---- | - | 7001 | Studio提供的web服务 | - | 8080 | Nebula-http-gateway,Client的HTTP服务 | + | 7001 | Studio 提供的 web 服务 | + | 8080 | Nebula-http-gateway,Client 的 HTTP 服务 | ### 安装 @@ -173,7 +172,6 @@ $ npm run start ![Nebula Graph Studio 登录界面](../figs/st-ug-001-1.png "Nebula Graph Studio 登录界面") - ### 停止服务 用户可以采用 `kill pid` 的方式来关停服务: @@ -188,15 +186,15 @@ $ npm run stop # stop nebula-graph-studio 在部署 Docker 版 Studio 之前,用户需要确认以下信息: -- Nebula Graph 服务已经部署并启动。详细信息,参考[Nebula Graph安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 Nebula Graph 安装部署")。 +- Nebula Graph 服务已经部署并启动。详细信息,参考 [Nebula Graph 安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 Nebula Graph 安装部署")。 - 在即将运行 Docker 版 Studio 的机器上安装并启动 Docker Compose。详细信息参考 [Docker Compose 文档](https://docs.docker.com/compose/install/ "点击前往 Docker 文档中心")。 - 确保在安装开始前,以下端口处于未被使用状态。 | 端口号 | 说明 | | ---- | ---- | - | 7001 | Studio提供的web服务 | - | 8080 | Nebula-http-gateway,Client的HTTP服务 | + | 7001 | Studio 提供的 web 服务 | + | 8080 | Nebula-http-gateway,Client 的 HTTP 服务 | - (可选)在中国大陆从 Docker Hub 拉取 Docker 镜像的速度可能比较慢,用户可以使用 `registry-mirrors` 参数配置加速镜像。例如,如果要使用 Docker 中国区官方镜像、网易镜像和中国科技大学的镜像,则按以下格式配置 `registry-mirrors` 参数: @@ -218,7 +216,7 @@ $ npm run stop # stop nebula-graph-studio 1. 下载 Studio 的部署配置文件。 - | 安装包 | Nebula Graph版本 | + | 安装包 | Nebula Graph 版本 | | ----- | ----- | | [nebula-graph-studio-v{{studio.release}}.tar.gz](https://oss-cdn.nebula-graph.com.cn/nebula-graph-studio/nebula-graph-studio-v{{studio.release}}.tar.gz) | {{nebula.release}} | @@ -266,4 +264,4 @@ $ npm run stop # stop nebula-graph-studio ## 后续操作 -进入 Studio 登录界面后,用户需要连接 Nebula Graph。详细信息,参考[连接数据库](st-ug-connect.md)。 +进入 Studio 登录界面后,用户需要连接 Nebula Graph。详细信息,参考 [连接数据库](st-ug-connect.md)。 diff --git a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-edge-type.md b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-edge-type.md index 8b0ab7e0970..ba3d5965741 100644 --- a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-edge-type.md +++ b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-edge-type.md @@ -1,6 +1,6 @@ -# 操作Edge type +# 操作 Edge type -在 Nebula Graph 数据库中创建图空间后,用户可能需要创建Edge type。用户可以选择使用 **控制台** 或者 **Schema** 操作Edge type。本文仅说明如何使用 **Schema** 操作Edge type。 +在 Nebula Graph 数据库中创建图空间后,用户可能需要创建 Edge type。用户可以选择使用 **控制台** 或者 **Schema** 操作 Edge type。本文仅说明如何使用 **Schema** 操作 Edge type。 ## 支持版本 @@ -8,7 +8,7 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 ## 前提条件 -在 Studio 上操作Edge type之前,用户必须确认以下信息: +在 Studio 上操作 Edge type 之前,用户必须确认以下信息: - Studio 已经连接到 Nebula Graph 数据库。 @@ -16,9 +16,9 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 - 当前登录的账号拥有 GOD、ADMIN 或者 DBA 的权限。 -## 创建Edge type +## 创建 Edge type -按以下步骤使用 **Schema** 创建Edge type: +按以下步骤使用 **Schema** 创建 Edge type: 1. 在工具栏中,点击 **Schema** 页签。 @@ -30,26 +30,26 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 5. 在 **创建** 页面上,完成以下设置: - - **名称**:按提示信息输入合规的Edge type名称。本示例中,输入 `serve`。 + - **名称**:按提示信息输入合规的 Edge type 名称。本示例中,输入 `serve`。 - - (可选)如果Edge type需要描述,可以在名称下方的 **描述** 输入相应内容。 + - (可选)如果 Edge type 需要描述,可以在名称下方的 **描述** 输入相应内容。 - - (可选)如果Edge type需要属性,在 **定义属性**面板的左上角,点击勾选框,并在展开的列表中,完成以下操作: + - (可选)如果 Edge type 需要属性,在 **定义属性**面板的左上角,点击勾选框,并在展开的列表中,完成以下操作: - 输入属性名称、数据类型和默认值。 - - 如果一个Edge type有多个属性,可以点击 **添加属性** 按钮,并定义属性。 + - 如果一个 Edge type 有多个属性,可以点击 **添加属性** 按钮,并定义属性。 - 如果要删除某个属性,在该属性所在行,点击 ![表示删除的图标](../figs/st-ug-020.png "删除") 图标。 - - (可选)Edge type未设置索引时,用户可以设置 TTL:在 **设置TTL**面板的左上角,点击勾选框,并在展开的列表中设置 `TTL_COL` 和 `TTL_DURATION` 参数信息。关于这两个参数的详细信息,参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往 Nebula Graph 网站")。 + - (可选)Edge type 未设置索引时,用户可以设置 TTL:在 **设置 TTL **面板的左上角,点击勾选框,并在展开的列表中设置 `TTL_COL` 和 `TTL_DURATION` 参数信息。关于这两个参数的详细信息,参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往 Nebula Graph 网站")。 -6. 完成设置后,在 **对应的nGQL语句** 面板上,用户能看到与上述配置等价的 nGQL 语句。 -![定义Edge type action 的属性](../figs/st-ug-022-2.png "定义Edge type") +6. 完成设置后,在 **对应的 nGQL 语句** 面板上,用户能看到与上述配置等价的 nGQL 语句。 +![定义 Edge type action 的属性](../figs/st-ug-022-2.png "定义 Edge type") 7. 确认无误后,点击 **+ 创建** 按钮。 - 如果Edge type创建成功,**定义属性**面板会显示这个Edge type的属性列表。 + 如果 Edge type 创建成功,**定义属性**面板会显示这个 Edge type 的属性列表。 -## 修改Edge type +## 修改 Edge type -按以下步骤使用 **Schema** 修改Edge type: +按以下步骤使用 **Schema** 修改 Edge type: 1. 在工具栏中,点击 **Schema** 页签。 @@ -57,7 +57,7 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 3. 在 **当前图空间** 里确认图空间名称。用户也可以通过选择图空间名称完成图空间切换。 -4. 点击 **边类型** 页签,找到需要修改的Edge type,并在 **操作** 列中,点击 ![表示修改的图标](../figs/st-ug-021.png "修改") 图标。 +4. 点击 **边类型** 页签,找到需要修改的 Edge type,并在 **操作** 列中,点击 ![表示修改的图标](../figs/st-ug-021.png "修改") 图标。 5. 在 **编辑** 页面,用户可以选择以下操作: @@ -65,18 +65,18 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 - 如果要修改属性:在 **定义属性** 面板上,找到需要修改的属性,在右侧点击 **编辑**,再修改属性的数据类型或者默认值。修改完成后,点击 **确认** 或 **取消**。 - 如果要删除属性:在 **定义属性** 面板上,找到需要删除的属性,在右侧点击 **删除**,经确认后,删除属性。 - 如果要添加属性:在 **定义属性** 面板上,点击 **添加属性** 按钮,添加属性信息。 - - 如果要修改 TTL:在 **设置TTL** 面板上,修改或 `TTL_COL` 和 `TTL_DURATION` 设置。 - - 如果要删除所有已经配置的 TTL:在 **设置TTL** 面板的左上角,点击勾选框,取消选择。 - - 如果要设置 TTL:在 **设置TTL** 面板的左上角,点击勾选框,开始设置 TTL。 + - 如果要修改 TTL:在 **设置 TTL** 面板上,修改或 `TTL_COL` 和 `TTL_DURATION` 设置。 + - 如果要删除所有已经配置的 TTL:在 **设置 TTL** 面板的左上角,点击勾选框,取消选择。 + - 如果要设置 TTL:在 **设置 TTL** 面板的左上角,点击勾选框,开始设置 TTL。 -6. 完成设置后,在 **对应的nGQL语句** 面板上,用户能看到修改后的 nGQL 语句。 +6. 完成设置后,在 **对应的 nGQL 语句** 面板上,用户能看到修改后的 nGQL 语句。 -## 删除Edge type +## 删除 Edge type !!! danger - 删除 Edge type 前先确认[影响](../../3.ngql-guide/11.edge-type-statements/2.drop-edge.md),已删除的数据如未[备份](../../7.data-security/3.manage-snapshot.md)无法恢复。 + 删除 Edge type 前先确认 [影响](../../3.ngql-guide/11.edge-type-statements/2.drop-edge.md),已删除的数据如未 [备份](../../7.data-security/3.manage-snapshot.md) 无法恢复。 -按以下步骤使用 **Schema** 删除Edge type: +按以下步骤使用 **Schema** 删除 Edge type: 1. 在工具栏中,点击 **Schema** 页签。 @@ -84,10 +84,10 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 3. 在 **当前图空间** 里确认图空间名称。用户也可以通过选择图空间名称切换图空间。 -4. 点击 **边类型** 页签,找到需要修改的Edge type,并在 **操作** 列中,点击 ![表示删除的图标](../figs/st-ug-017.png "删除") 图标。 +4. 点击 **边类型** 页签,找到需要修改的 Edge type,并在 **操作** 列中,点击 ![表示删除的图标](../figs/st-ug-017.png "删除") 图标。 5. 在弹出的对话框中点击 **确认**。 ## 后续操作 -Edge type创建成功后,用户可以在 **控制台** 上逐条插入边数据,或者使用 **导入** 功能批量插入边数据。 +Edge type 创建成功后,用户可以在 **控制台** 上逐条插入边数据,或者使用 **导入** 功能批量插入边数据。 diff --git a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-index.md b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-index.md index f2ec1a44f1a..cd17cee4c27 100644 --- a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-index.md +++ b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-index.md @@ -4,7 +4,7 @@ !!! Note - 一般在创建了 Tag 或者 Edge type 之后即可创建索引,但是,索引会影响写性能,所以,建议先导入数据,再批量重建索引。关于索引的详细信息,参考[《nGQL 用户手册》](../../3.ngql-guide/14.native-index-statements/README.md "点击前往 Nebula Graph 网站")。 + 一般在创建了 Tag 或者 Edge type 之后即可创建索引,但是,索引会影响写性能,所以,建议先导入数据,再批量重建索引。关于索引的详细信息,参考 [《nGQL 用户手册》](../../3.ngql-guide/14.native-index-statements/README.md "点击前往 Nebula Graph 网站")。 ## 支持版本 @@ -33,7 +33,7 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 5. 在 **创建** 页面上,完成以下设置: - **索引类型**:确认或修改索引类型,即 **Tag** 或者 **Edge type**。本示例中选择 **Edge type**。 - - **名称**:选择要创建索引的Tag或Edge type名称。本示例中选择 **follow**。 + - **名称**:选择要创建索引的 Tag 或 Edge type 名称。本示例中选择 **follow**。 - **索引名称**:按规定指定索引名称。本示例中输入 **follow_index**。 - **索引属性**:点击 **添加**,在 **选择关联的属性** 列表里选择需要索引的属性,并点击 **确定** 按钮。如果需要关联多个属性,重复这一步操作。用户可以按界面提示重排索引属性的顺序。本示例中选择 `degree`。 @@ -41,10 +41,10 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 索引属性的顺序会影响 `LOOKUP` 语句的查询结果。详细信息,参考 [《nGQL 用户手册》](../../3.ngql-guide/7.general-query-statements/5.lookup.md "点击前往 Nebula Graph 网站")。 - - **描述**:输入对索引的描述,最大为256字节。默认无描述。本示例为 `follow_index`。 + - **描述**:输入对索引的描述,最大为 256 字节。默认无描述。本示例为 `follow_index`。 -6. 完成设置后,在 **对应的 nGQL**面板,用户能看到与上述配置等价的 nGQL 语句。 -![为Edge type action 创建索引](../figs/st-ug-023-2.png "创建索引") +6. 完成设置后,在 **对应的 nGQL **面板,用户能看到与上述配置等价的 nGQL 语句。 +![为 Edge type action 创建索引](../figs/st-ug-023-2.png "创建索引") 7. 确认无误后,点击 **+ 创建** 按钮。 如果索引创建成功,**定义属性**面板会显示这个索引的属性列表。 diff --git a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-space.md b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-space.md index bf6f41cc096..e151c76a96d 100644 --- a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-space.md +++ b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-space.md @@ -25,15 +25,15 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 3. 在 **创建** 页面,完成以下配置: - - **名称**:指定图空间名称,本示例中设置为 `basketballplayer`。不可与已有的图空间名称重复。不可使用关键字或保留关键字做标识符,参考[关键字](../../3.ngql-guide/1.nGQL-overview/keywords-and-reserved-words.md "点击前往 关键字")。 + - **名称**:指定图空间名称,本示例中设置为 `basketballplayer`。不可与已有的图空间名称重复。不可使用关键字或保留关键字做标识符,参考 [关键字](../../3.ngql-guide/1.nGQL-overview/keywords-and-reserved-words.md "点击前往 关键字")。 - **vid type**:图空间中点 ID(VID)的数据类型,可选值为定长字符串 `FIXED_STRING()` 或 `INT64`,一旦定义无法修改。本示例设置为`FIXED_STRING(32)`,参考 [VID](../../1.introduction/3.vid.md)。 - - **描述**:图空间的描述,最大为256字节。默认无描述。本示例设置为`Statistics of basketball players`。 + - **描述**:图空间的描述,最大为 256 字节。默认无描述。本示例设置为`Statistics of basketball players`。 - **选填参数**:分别设置 `partition_num`、`replica_factor` 的值。在本示例中,两个参数分别设置为 `100`、`1`。详细信息,参考 [`CREATE SPACE` 语法](../../3.ngql-guide/9.space-statements/1.create-space.md "点击前往 CREATE SPACE")。 - 在 **对应的nGQL语句** 面板上,用户能看到上述设置对应的 nGQL 语句。如下所示: + 在 **对应的 nGQL 语句** 面板上,用户能看到上述设置对应的 nGQL 语句。如下所示: ```ngql CREATE SPACE basketballplayer (partition_num = 100, replica_factor = 1, vid_type = FIXED_STRING(32)) COMMENT = "Statistics of basketball players" @@ -47,7 +47,7 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 ## 删除图空间 !!! danger - 删除图空间会删除其中的所有数据,已删除的数据如未[备份](../../7.data-security/3.manage-snapshot.md)无法恢复。 + 删除图空间会删除其中的所有数据,已删除的数据如未 [备份](../../7.data-security/3.manage-snapshot.md) 无法恢复。 按以下步骤使用 **Schema** 删除图空间: @@ -64,6 +64,6 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 图空间创建成功后,用户可以开始创建或修改 Schema,包括: -- [操作Tag](st-ug-crud-tag.md) -- [操作Edge type](st-ug-crud-edge-type.md) +- [操作 Tag](st-ug-crud-tag.md) +- [操作 Edge type](st-ug-crud-edge-type.md) - [操作索引](st-ug-crud-index.md) diff --git a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-tag.md b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-tag.md index 2e96e28b185..a62f9bf0b01 100644 --- a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-tag.md +++ b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-tag.md @@ -1,6 +1,6 @@ -# 操作Tag(点类型) +# 操作 Tag(点类型) -在 Nebula Graph 数据库中创建图空间后,用户需要创建Tag(点类型)。用户可以选择使用 **控制台** 或者 **Schema** 操作Tag。本文仅说明如何使用 **Schema** 操作Tag。 +在 Nebula Graph 数据库中创建图空间后,用户需要创建 Tag(点类型)。用户可以选择使用 **控制台** 或者 **Schema** 操作 Tag。本文仅说明如何使用 **Schema** 操作 Tag。 ## 支持版本 @@ -8,15 +8,15 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 ## 前提条件 -在 Studio 上操作Tag之前,用户必须确认以下信息: +在 Studio 上操作 Tag 之前,用户必须确认以下信息: - Studio 已经连接到 Nebula Graph 数据库。 - 图空间已经创建。 - 当前登录的账号拥有 GOD、ADMIN 或者 DBA 的权限。 -## 创建Tag +## 创建 Tag -按以下步骤使用 **Schema** 创建Tag: +按以下步骤使用 **Schema** 创建 Tag: 1. 在工具栏中,点击 **Schema** 页签。 @@ -28,26 +28,26 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 5. 在 **创建** 页面上,完成以下设置: - a. **名称**:按提示信息输入合规的Tag名称。本示例中,输入 `player` 和 `team`。 + a. **名称**:按提示信息输入合规的 Tag 名称。本示例中,输入 `player` 和 `team`。 - b. (可选)如果Tag需要属性,在 **定义属性** 模块左上角,点击勾选框,并在展开的列表中,完成以下操作: + b. (可选)如果 Tag 需要属性,在 **定义属性** 模块左上角,点击勾选框,并在展开的列表中,完成以下操作: - 输入属性名称、数据类型和默认值。 - - 如果一个Tag有多个属性,可以点击 **添加属性** 按钮,并定义属性。 + - 如果一个 Tag 有多个属性,可以点击 **添加属性** 按钮,并定义属性。 - 如果要删除某个属性,在该属性所在行,点击 ![表示删除的图标](../figs/st-ug-020.png "删除") 图标。 - c. (可选)Tag未设置索引时,用户可以设置 TTL:在 **设置TTL** 模块左上角,点击勾选框,并在展开的列表中设置 `TTL_COL` 和 `TTL_DURATION` 参数信息。关于这两个参数的详细信息,参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往 Nebula Graph 网站")。 + c. (可选)Tag 未设置索引时,用户可以设置 TTL:在 **设置 TTL** 模块左上角,点击勾选框,并在展开的列表中设置 `TTL_COL` 和 `TTL_DURATION` 参数信息。关于这两个参数的详细信息,参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往 Nebula Graph 网站")。 -6. 完成设置后,在 **对应的 nGQL**面板,用户能看到与上述配置等价的 nGQL 语句。 +6. 完成设置后,在 **对应的 nGQL **面板,用户能看到与上述配置等价的 nGQL 语句。 7. 确认无误后,点击 **+ 创建** 按钮。 - 如果Tag创建成功,**定义属性**面板会显示这个Tag的属性列表。 + 如果 Tag 创建成功,**定义属性**面板会显示这个 Tag 的属性列表。 -## 修改Tag +## 修改 Tag -按以下步骤使用 **Schema** 修改Tag: +按以下步骤使用 **Schema** 修改 Tag: 1. 在工具栏中,点击 **Schema** 页签。 @@ -55,26 +55,26 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 3. 在 **当前图空间** 里确认图空间名称。用户也可以通过选择图空间名称切换图空间。 -4. 点击 **标签** 页签,找到需要修改的Tag,并在 **操作** 列中,点击 ![表示修改的图标](../figs/st-ug-021.png "修改") 图标。 +4. 点击 **标签** 页签,找到需要修改的 Tag,并在 **操作** 列中,点击 ![表示修改的图标](../figs/st-ug-021.png "修改") 图标。 5. 在 **编辑** 页面,用户可以选择以下操作: - 如果要修改描述:在 **名称** 下方,点击编辑进行修改。 - 如果要修改属性:在 **定义属性** 面板上,找到需要修改的属性,在右侧点击 **编辑**,再修改属性的数据类型和默认值。之后,点击 **确认** 或者 **取消** 完成修改。 - 如果要删除属性:在 **定义属性** 面板上,找到需要删除的属性,在右侧点击 **删除**,经确认后,删除属性。 - - 如果要添加属性:在 **定义属性**面板上,点击 **添加属性** 按钮,添加属性信息。详细操作,参考 创建Tag面板。 - - 如果配置了 TTL,要修改 TTL 信息:在 **设置TTL** 面板上,修改 `TTL_COL` 和 `TTL_DURATION` 配置。 - - 如果要删除已经配置的 TTL 信息:在 **设置TTL** 面板的左上角,点击勾选框,取消选择。 - - 如果要配置 TTL 信息:在 **使用TTL** 面板的右上角,点击勾选框,开始设置 TTL 信息。 + - 如果要添加属性:在 **定义属性**面板上,点击 **添加属性** 按钮,添加属性信息。详细操作,参考 创建 Tag 面板。 + - 如果配置了 TTL,要修改 TTL 信息:在 **设置 TTL** 面板上,修改 `TTL_COL` 和 `TTL_DURATION` 配置。 + - 如果要删除已经配置的 TTL 信息:在 **设置 TTL** 面板的左上角,点击勾选框,取消选择。 + - 如果要配置 TTL 信息:在 **使用 TTL** 面板的右上角,点击勾选框,开始设置 TTL 信息。 6. 完成设置后,在 **对应的 nGQL** 面板上,用户能看到修改后的 nGQL 语句。 -## 删除Tag +## 删除 Tag !!! danger - 删除Tag前先确认[影响](../../3.ngql-guide/10.tag-statements/2.drop-tag.md),已删除的数据如未[备份](../../7.data-security/3.manage-snapshot.md)无法恢复。 + 删除 Tag 前先确认 [影响](../../3.ngql-guide/10.tag-statements/2.drop-tag.md),已删除的数据如未 [备份](../../7.data-security/3.manage-snapshot.md) 无法恢复。 -按以下步骤使用 **Schema** 删除Tag: +按以下步骤使用 **Schema** 删除 Tag: 1. 在工具栏中,点击 **Schema** 页签。 @@ -82,10 +82,10 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 3. 在 **当前图空间** 里确认图空间名称。用户也可以通过选择图空间名称切换图空间。 -4. 点击 **标签** 页签,找到需要修改的Tag,并在 **操作** 列中,点击 ![表示删除的图标](../figs/st-ug-017.png "删除") 图标。 +4. 点击 **标签** 页签,找到需要修改的 Tag,并在 **操作** 列中,点击 ![表示删除的图标](../figs/st-ug-017.png "删除") 图标。 5. 在弹出的对话框中点击 **确认**。 ## 后续操作 -Tag创建成功后,用户可以在 **控制台** 上逐条插入点数据,或者使用 **导入** 功能批量插入点数据。 +Tag 创建成功后,用户可以在 **控制台** 上逐条插入点数据,或者使用 **导入** 功能批量插入点数据。 diff --git a/docs-2.0/nebula-studio/quick-start/st-ug-create-schema.md b/docs-2.0/nebula-studio/quick-start/st-ug-create-schema.md index f28c201102a..185a24ec8f1 100644 --- a/docs-2.0/nebula-studio/quick-start/st-ug-create-schema.md +++ b/docs-2.0/nebula-studio/quick-start/st-ug-create-schema.md @@ -4,7 +4,7 @@ !!! Note - 用户也可以使用 nebula-console 创建 Schema。详细信息,参考 [Nebula Graph使用手册](../../README.md) 和 [Nebula Graph 快速开始](../../2.quick-start/1.quick-start-workflow.md)。 + 用户也可以使用 nebula-console 创建 Schema。详细信息,参考 [Nebula Graph 使用手册](../../README.md) 和 [Nebula Graph 快速开始](../../2.quick-start/1.quick-start-workflow.md)。 ## 前提条件 @@ -26,9 +26,9 @@ 按以下步骤使用 **Schema** 创建 Schema: -1. 创建Tag。详细信息,参考 [操作Tag](../manage-schema/st-ug-crud-tag.md)。 +1. 创建 Tag。详细信息,参考 [操作 Tag](../manage-schema/st-ug-crud-tag.md)。 -2. 创建Edge type。详细信息,参考 [操作Edge type](../manage-schema/st-ug-crud-edge-type.md)。 +2. 创建 Edge type。详细信息,参考 [操作 Edge type](../manage-schema/st-ug-crud-edge-type.md)。 ## 使用控制台创建 Schema @@ -36,36 +36,36 @@ 1. 在工具栏里,点击 **控制台** 页签。 -2. 在 **当前Space** 中选择一个图空间。在本示例中,选择 **basketballplayer**。 +2. 在 **当前 Space** 中选择一个图空间。在本示例中,选择 **basketballplayer**。 - ![在当前Space 中选择一个图空间](../figs/st-ug-007-1.png "选择图空间") + ![在当前 Space 中选择一个图空间](../figs/st-ug-007-1.png "选择图空间") 3. 在命令行中,依次输入以下语句,并点击 ![表示运行的图标](../figs/st-ug-008.png "Run 图标") 图标。 ```nGQL - -- 创建Tag player,带有 2 个属性 + -- 创建 Tag player,带有 2 个属性 CREATE TAG player(name string, age int); - -- 创建Tag team,带有 1 个属性 + -- 创建 Tag team,带有 1 个属性 CREATE TAG team(name string); - -- 创建Edge type follow,带有 1 个属性 + -- 创建 Edge type follow,带有 1 个属性 CREATE EDGE follow(degree int); - -- 创建Edge type serve,带有 2 个属性 + -- 创建 Edge type serve,带有 2 个属性 CREATE EDGE serve(start_year int, end_year int); ``` -至此,用户已经完成了 Schema 创建。用户可以运行以下语句查看Tag与Edge type的定义是否正确、完整。 +至此,用户已经完成了 Schema 创建。用户可以运行以下语句查看 Tag 与 Edge type 的定义是否正确、完整。 ```nGQL --- 列出当前图空间中所有Tag +-- 列出当前图空间中所有 Tag SHOW TAGS; --- 列出当前图空间中所有Edge type +-- 列出当前图空间中所有 Edge type SHOW EDGES; --- 查看每种Tag和Edge type的结构是否正确 +-- 查看每种 Tag 和 Edge type 的结构是否正确 DESCRIBE TAG player; DESCRIBE TAG team; DESCRIBE EDGE follow; diff --git a/docs-2.0/nebula-studio/quick-start/st-ug-explore.md b/docs-2.0/nebula-studio/quick-start/st-ug-explore.md index c70e4917af9..f7642da4326 100644 --- a/docs-2.0/nebula-studio/quick-start/st-ug-explore.md +++ b/docs-2.0/nebula-studio/quick-start/st-ug-explore.md @@ -8,8 +8,8 @@ 以查询代表球员 `player100` 与球队 `team204` 的边的属性为例: -* 在 **控制台** 页面:运行 `FETCH PROP ON serve "player100" -> "team204";`,数据库会返回 Rank 为0的边。返回结果后,点击 **查看子图** 按钮,将点数据查询结果导入 **图探索** 进行可视化显示。 +* 在 **控制台** 页面:运行 `FETCH PROP ON serve "player100" -> "team204";`,数据库会返回 Rank 为 0 的边。返回结果后,点击 **查看子图** 按钮,将点数据查询结果导入 **图探索** 进行可视化显示。 ![将控制台上查询得到的点数据信息导入到图探索进行可视化](../figs/st-ug-012-1.png "将点数据查询结果导入图探索") -* 在 **图探索** 页面:点击 **开始探索** 按钮,在 **指定VID** 对话框中,输入 **"player101"**,**图探索** 画布里会显示这个点,将鼠标移到点上,用户能看到这个点所有属性信息,如下图所示。 +* 在 **图探索** 页面:点击 **开始探索** 按钮,在 **指定 VID** 对话框中,输入 **"player101"**,**图探索** 画布里会显示这个点,将鼠标移到点上,用户能看到这个点所有属性信息,如下图所示。 ![可视化显示 History of Chinese Women Through Time 课程的信息](../figs/st-ug-013-1.png "按 VID 查询得到点的信息") diff --git a/docs-2.0/nebula-studio/quick-start/st-ug-import-data.md b/docs-2.0/nebula-studio/quick-start/st-ug-import-data.md index 60677a3e24e..949fe055913 100644 --- a/docs-2.0/nebula-studio/quick-start/st-ug-import-data.md +++ b/docs-2.0/nebula-studio/quick-start/st-ug-import-data.md @@ -20,13 +20,13 @@ 1. 在工具栏里,点击 **导入** 页签。 -2. 在 **选择Space** 页面,选择一个图空间,再点击 **下一步** 按钮。 +2. 在 **选择 Space** 页面,选择一个图空间,再点击 **下一步** 按钮。 3. 在 **上传文件** 页面,点击 **上传文件** 按钮,并选择需要的 CSV 文件。本示例中,选择 `edge_serve.csv`、`edge_follow.csv`、`vertex_player.csv` 和 `vertex_team.csv` 文件。 !!! Note - 一次可以选择多个 CSV 文件,本文使用的 CSV 文件可以在[规划 Schema ](st-ug-plan-schema.md)中下载。 + 一次可以选择多个 CSV 文件,本文使用的 CSV 文件可以在 [规划 Schema ](st-ug-plan-schema.md) 中下载。 4. 在文件列表的 **操作** 列,点击 **预览** 或 **删除**,保证文件信息正确,之后,再点击 **下一步** 按钮。 @@ -42,25 +42,25 @@ !!! Note - 在同一个图空间中,VID 始终唯一,不可重复。关于 VID 的信息,参考 [Nebula Graph 的点ID](../../1.introduction/3.vid.md) "点击进入 Nebula Graph 用户手册"。 + 在同一个图空间中,VID 始终唯一,不可重复。关于 VID 的信息,参考 [Nebula Graph 的点 ID](../../1.introduction/3.vid.md) "点击进入 Nebula Graph 用户手册"。 8. 在 **TAG 1** 部分,完成以下操作: - 3. 在 **TAG** 下拉列表中,选择数据源对应的Tag名称。在本示例中,`vertex_player.csv` 文件对应选择 **player**;`vertex_team.csv` 文件对应选择 **team**。 + 3. 在 **TAG** 下拉列表中,选择数据源对应的 Tag 名称。在本示例中,`vertex_player.csv` 文件对应选择 **player**;`vertex_team.csv` 文件对应选择 **team**。 - 4. 在显示的属性列表中,点击 **选择**,为Tag属性绑定源数据。在本示例中,`player` 标签的 `name` 属性对应 `vertex_player.csv` 文件中的 **Column 2** 列,**类型** 为 **string**,`age` 属性对应文件中的 **Column 1** 列,**类型** 为 **int**;`team` 标签的 `name` 属性对应 `vertex_team.csv` 文件中的 **Column 1** 列,**类型** 为 **string**。 + 4. 在显示的属性列表中,点击 **选择**,为 Tag 属性绑定源数据。在本示例中,`player` 标签的 `name` 属性对应 `vertex_player.csv` 文件中的 **Column 2** 列,**类型** 为 **string**,`age` 属性对应文件中的 **Column 1** 列,**类型** 为 **int**;`team` 标签的 `name` 属性对应 `vertex_team.csv` 文件中的 **Column 1** 列,**类型** 为 **string**。 - ![course类点对应的属性数据源](../figs/st-ug-010-1.png "为点属性选择数据源") + ![course 类点对应的属性数据源](../figs/st-ug-010-1.png "为点属性选择数据源") -9. (可选)如果有多个Tag数据文件,重复步骤 5 到步骤 8。 +9. (可选)如果有多个 Tag 数据文件,重复步骤 5 到步骤 8。 10. 完成配置后,点击 **下一步**。 - 界面提示 **配置验证成功**,表示Tag数据源绑定成功。 + 界面提示 **配置验证成功**,表示 Tag 数据源绑定成功。 11. 在 **关联边** 页面,点击 **+ 绑定数据源** 按钮,在对话框中选择边数据文件,并点击 **确认** 按钮。如本示例中的 `edge_follow.csv` 文件。 -12. 在 **Edge X** 页签的 **类型** 下拉列表中,选择Edge type名称。本示例中,选择 **follow**。 +12. 在 **Edge X** 页签的 **类型** 下拉列表中,选择 Edge type 名称。本示例中,选择 **follow**。 -13. 根据Edge type的属性,从 `edge_follow.csv` 文件中选择相应的数据列。其中,**srcId** 和 **dstId** 分别表示边的起点与终点,所选择的数据及处理方式必须与相应的 VID 保持一致。本示例中,**srcId** 对应的是表示起点球员的 VID,**dstId** 对应的是表示终点球员的 VID。**rank** 为选填项,可以忽略。 +13. 根据 Edge type 的属性,从 `edge_follow.csv` 文件中选择相应的数据列。其中,**srcId** 和 **dstId** 分别表示边的起点与终点,所选择的数据及处理方式必须与相应的 VID 保持一致。本示例中,**srcId** 对应的是表示起点球员的 VID,**dstId** 对应的是表示终点球员的 VID。**rank** 为选填项,可以忽略。 ![actions 边对应的属性数据源](../figs/st-ug-011-1.png "为边属性选择数据源") diff --git a/docs-2.0/nebula-studio/quick-start/st-ug-plan-schema.md b/docs-2.0/nebula-studio/quick-start/st-ug-plan-schema.md index 31927a5d1c5..f8063f21d1d 100644 --- a/docs-2.0/nebula-studio/quick-start/st-ug-plan-schema.md +++ b/docs-2.0/nebula-studio/quick-start/st-ug-plan-schema.md @@ -4,11 +4,11 @@ Schema 至少要包含以下要素: -* Tag,以及每种Tag的属性。 +* Tag,以及每种 Tag 的属性。 -* Edge type,以及每种Edge type的属性。 +* Edge type,以及每种 Edge type 的属性。 -用户可以下载Nebula Graph示例数据集[basketballplayer](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip "点击下载") ,本文将通过该实例说明如何规划 Schema。 +用户可以下载 Nebula Graph 示例数据集 [basketballplayer](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip "点击下载") ,本文将通过该实例说明如何规划 Schema。 下表列出了 Schema 要素。 diff --git a/docs-2.0/nebula-studio/troubleshooting/st-ug-config-server-errors.md b/docs-2.0/nebula-studio/troubleshooting/st-ug-config-server-errors.md index 51c7196f814..6ae7bc6c8e9 100644 --- a/docs-2.0/nebula-studio/troubleshooting/st-ug-config-server-errors.md +++ b/docs-2.0/nebula-studio/troubleshooting/st-ug-config-server-errors.md @@ -8,21 +8,21 @@ 用户可以按以下步骤排查问题。 -### 第 1 步. 确认 **Host** 字段的格式是否正确 +### 第 1 步。确认 **Host** 字段的格式是否正确 必须填写 Nebula Graph 图数据库 Graph 服务的 IP 地址(`graph_server_ip`)和端口。如果未做修改,端口默认为 `9669`。即使 Nebula Graph 与 Studio 都部署在当前机器上,用户也必须使用本机 IP 地址,而不能使用 `127.0.0.1`、`localhost` 或者 `0.0.0.0`。 -### 第 2 步. 确认 **用户名** 和 **密码** 是否正确 +### 第 2 步。确认 **用户名** 和 **密码** 是否正确 如果 Nebula Graph 没有开启身份认证,用户可以填写任意字符串登录。 如果已经开启身份认证,用户必须使用分配的账号登录。 -### 第 3 步. 确认 Nebula Graph 服务是否正常 +### 第 3 步。确认 Nebula Graph 服务是否正常 检查 Nebula Graph 服务状态。关于查看服务的操作: -- 如果在 Linux 服务器上通过编译部署的 Nebula Graph,参考 [查看 Nebula Graph 服务](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster.md "点击查看Nebula Graph内核文档")。 +- 如果在 Linux 服务器上通过编译部署的 Nebula Graph,参考 [查看 Nebula Graph 服务](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster.md "点击查看 Nebula Graph 内核文档")。 - 如果使用 Docker Compose 部署和 RPM 部署的 Nebula Graph,参考 [查看 Nebula Graph 服务状态和端口](../deploy-connect/st-ug-deploy.md "点击前往 GitHub 网站")。 如果 Nebula Graph 服务正常,进入第 4 步继续排查问题。否则,请重启 Nebula Graph 服务。 @@ -31,7 +31,7 @@ 如果之前使用 `docker-compose up -d` 启动 Nebula Graph,必须运行 `docker-compose down` 命令停止 Nebula Graph。 -### 第 4 步. 确认 Graph 服务的网络连接是否正常 +### 第 4 步。确认 Graph 服务的网络连接是否正常 在 Studio 机器上运行命令(例如 `telnet 9669`)确认 Nebula Graph 的 Graph 服务网络连接是否正常。 diff --git a/docs-2.0/nebula-studio/troubleshooting/st-ug-connection-errors.md b/docs-2.0/nebula-studio/troubleshooting/st-ug-connection-errors.md index e1d8b6cfc32..e1a01f83128 100644 --- a/docs-2.0/nebula-studio/troubleshooting/st-ug-connection-errors.md +++ b/docs-2.0/nebula-studio/troubleshooting/st-ug-connection-errors.md @@ -8,11 +8,11 @@ 用户可以按以下顺序排查问题。 -### 第 1 步. 确认系统架构 +### 第 1 步。确认系统架构 需要确认部署 Studio 服务的机器是否为 x86_64 架构。目前 Studio 仅支持 x86_64 系统架构。 -### 第 2 步. 检查 Studio 服务是否正常启动 +### 第 2 步。检查 Studio 服务是否正常启动 运行 `docker-compose ps` 查看服务是否已经正常启动。 @@ -33,13 +33,13 @@ nebula-web-docker_web_1 docker-entrypoint.sh npm r ... Up 0.0.0.0: 如果之前使用 `docker-compose up -d` 启动 Studio,必须运行 `docker-compose down` 命令停止 Studio。 -### 第 3 步. 确认访问地址 +### 第 3 步。确认访问地址 如果 Studio 与浏览器在同一台机器上,用户可以在浏览器里使用 `localhost:7001`、`127.0.0.1:7001` 或者 `0.0.0.0:7001` 访问 Studio。 如果两者不在同一台机器上,必须在浏览器里输入 `:7001`。其中,`studio_server_ip` 是指部署 Studio 服务的机器的 IP 地址。 -### 第 4 步. 确认网络连通性 +### 第 4 步。确认网络连通性 运行 `curl :7001 -I` 确认是否正常。如果返回 `HTTP/1.1 200 OK`,表示网络连通正常。 diff --git a/docs-2.0/nebula-studio/use-console/st-ug-console.md b/docs-2.0/nebula-studio/use-console/st-ug-console.md index 735467d73b1..149cc7f7b9c 100644 --- a/docs-2.0/nebula-studio/use-console/st-ug-console.md +++ b/docs-2.0/nebula-studio/use-console/st-ug-console.md @@ -16,5 +16,5 @@ Studio 的控制台界面如下图所示。 | 6 | 运行 | 在输入框中输入 nGQL 语句后,点击 ![表示运行的图标](../figs/st-ug-008.png "运行按钮") 按钮即开始运行语句。 | | 7 | 语句运行状态 | 运行 nGQL 语句后,这里显示语句运行状态。如果语句运行成功,语句以绿色显示。如果语句运行失败,语句以红色显示。 | | 8 | 结果窗口 | 显示语句运行结果。如果语句会返回结果,结果窗口会以表格形式呈现返回的结果。 | -| 9 | 导出CSV文件 | 运行 nGQL 语句返回结果后,点击 **导出CSV文件** 按钮即能将结果以 CSV 文件的形式导出。 | +| 9 | 导出 CSV 文件 | 运行 nGQL 语句返回结果后,点击 **导出 CSV 文件** 按钮即能将结果以 CSV 文件的形式导出。 | | 10 | 图探索功能键 | 根据运行的 nGQL 语句,用户可以点击图探索功能键将返回的结果导入 **图探索** 进行可视化展现,例如 [导入图探索](st-ug-open-in-explore.md) 和 [查看子图](st-ug-visualize-subgraph.md)。 | diff --git a/docs-2.0/nebula-studio/use-console/st-ug-open-in-explore.md b/docs-2.0/nebula-studio/use-console/st-ug-open-in-explore.md index ffeb8e77cc1..99fcd282185 100644 --- a/docs-2.0/nebula-studio/use-console/st-ug-open-in-explore.md +++ b/docs-2.0/nebula-studio/use-console/st-ug-open-in-explore.md @@ -19,7 +19,7 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 1. 在工具栏里,点击 **控制台** 页签。 -2. 在 **当前Space** 中选择一个图空间。在本示例中,选择 **basketballplayer**。 +2. 在 **当前 Space** 中选择一个图空间。在本示例中,选择 **basketballplayer**。 3. 在命令行中,输入查询语句,并点击 ![表示运行的图标](../figs/st-ug-008.png "Run 图标") 图标。 @@ -43,7 +43,7 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 1. 点击 **Edge type**。 - 2. 在 **Edge Type** 字段,填写Edge type名称。在本示例中,填写 `serve`。 + 2. 在 **Edge Type** 字段,填写 Edge type 名称。在本示例中,填写 `serve`。 3. 在 **Src ID** 字段,选择查询结果中代表边起点 VID 的列名。在本示例中,选择 `serve._src`。 @@ -53,7 +53,7 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 6. 完成配置后,点击 **导入** 按钮。 - ![填写Edge type名称,选择代表边起点和终点 VID 的列名](../figs/st-ug-041-1.png "配置Edge type信息") + ![填写 Edge type 名称,选择代表边起点和终点 VID 的列名](../figs/st-ug-041-1.png "配置 Edge type 信息") 6. 如果 **图探索** 页面此前已有数据,在弹出的窗口中选择数据插入方式: @@ -70,7 +70,7 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 1. 在工具栏里,点击 **控制台** 页签。 -2. 在 **当前Space** 中选择一个图空间。在本示例中,选择 **basketballplayer**。 +2. 在 **当前 Space** 中选择一个图空间。在本示例中,选择 **basketballplayer**。 3. 在命令行中,输入查询语句,并点击 ![表示运行的图标](../figs/st-ug-008.png "Run 图标") 图标。 diff --git a/docs-2.0/nebula-studio/use-console/st-ug-visualize-subgraph.md b/docs-2.0/nebula-studio/use-console/st-ug-visualize-subgraph.md index 823d369e5b6..037cc87fff6 100644 --- a/docs-2.0/nebula-studio/use-console/st-ug-visualize-subgraph.md +++ b/docs-2.0/nebula-studio/use-console/st-ug-visualize-subgraph.md @@ -26,7 +26,7 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 1. 在工具栏里,点击 **控制台** 页签。 -2. 在 **当前Space** 中选择一个图空间。在本示例中,选择 **basketballplayer**。 +2. 在 **当前 Space** 中选择一个图空间。在本示例中,选择 **basketballplayer**。 3. 在命令行中,输入 `FIND SHORTEST PATH` 或者 `FIND ALL PATH` 语句,并点击 ![表示运行的图标](../figs/st-ug-008.png "Run 图标") 图标。 @@ -48,7 +48,7 @@ Studio v{{ studio.release }} 及以后版本。请更新版本,详细操作参 - **清除插入**:清除画图板上原来的数据后,再插入新的数据。 -数据插入成功后,用户可以看到查询结果的可视化表现。并支持在页面中,完成点的拓展、移动画布、修改点的颜色及icon、显示点边属性等操作。 +数据插入成功后,用户可以看到查询结果的可视化表现。并支持在页面中,完成点的拓展、移动画布、修改点的颜色及 icon、显示点边属性等操作。 ![在画布上显示返回的路径结果](../figs/st-ug-046.png "路径结果的可视化表现") diff --git a/docs-2.0/reuse/source_connect-to-nebula-graph.md b/docs-2.0/reuse/source_connect-to-nebula-graph.md index 560d5f64846..ebf4e3d3baa 100644 --- a/docs-2.0/reuse/source_connect-to-nebula-graph.md +++ b/docs-2.0/reuse/source_connect-to-nebula-graph.md @@ -1,24 +1,24 @@ -Nebula Graph支持多种类型客户端,包括CLI客户端、GUI客户端和流行编程语言开发的客户端。本文将概述Nebula Graph客户端,并介绍如何使用原生CLI客户端Nebula Console。 +Nebula Graph 支持多种类型客户端,包括 CLI 客户端、GUI 客户端和流行编程语言开发的客户端。本文将概述 Nebula Graph 客户端,并介绍如何使用原生 CLI 客户端 Nebula Console。 -## Nebula Graph客户端 +## Nebula Graph 客户端 -用户可以使用已支持的[客户端或者命令行工具](https://docs.nebula-graph.com.cn/{{nebula.release}}/20.appendix/6.eco-tool-version/)来连接Nebula Graph数据库。 +用户可以使用已支持的 [客户端或者命令行工具](https://docs.nebula-graph.com.cn/{{nebula.release}}/20.appendix/6.eco-tool-version/) 来连接 Nebula Graph 数据库。 - -## 使用Nebula Console连接Nebula Graph +## 使用 Nebula Console 连接 Nebula Graph ### 前提条件 -- Nebula Graph服务已[启动](https://docs.nebula-graph.com.cn/{{nebula.release}}/4.deployment-and-installation/manage-service/)。 +- Nebula Graph 服务已 [启动](https://docs.nebula-graph.com.cn/{{nebula.release}}/4.deployment-and-installation/manage-service/)。 -- 运行Nebula Console的机器和运行Nebula Graph的服务器网络互通。 +- 运行 Nebula Console 的机器和运行 Nebula Graph 的服务器网络互通。 ### 操作步骤 -1. 在[Nebula Console](https://github.com/vesoft-inc/nebula-console/releases "the nebula-console Releases page")下载页面,确认需要的版本,单击**Assets**。 +1. 在 [Nebula Console](https://github.com/vesoft-inc/nebula-console/releases "the nebula-console Releases page") 下载页面,确认需要的版本,单击** Assets**。 !!! Note @@ -26,7 +26,7 @@ Nebula Graph支持多种类型客户端,包括CLI客户端、GUI客户端和 ![Select a Nebula Graph version and click **Assets**](../reuse/console260.png "Click Assets to show the available Nebula Graph binary files") -2. 在**Assets**区域找到机器运行所需的二进制文件,下载文件到机器上。 +2. 在** Assets **区域找到机器运行所需的二进制文件,下载文件到机器上。 ![Click to download the package according to your hardware architecture](../reuse/assets260.png "Click the package name to download it") @@ -34,23 +34,23 @@ Nebula Graph支持多种类型客户端,包括CLI客户端、GUI客户端和 !!! Note - 在Windows系统中,请重命名为`nebula-console.exe`。 + 在 Windows 系统中,请重命名为`nebula-console.exe`。 -4. 在运行Nebula Console的机器上执行如下命令,为用户授予nebula-console文件的执行权限。 +4. 在运行 Nebula Console 的机器上执行如下命令,为用户授予 nebula-console 文件的执行权限。 !!! Note - Windows系统请跳过此步骤。 + Windows 系统请跳过此步骤。 ```bash $ chmod 111 nebula-console ``` -5. 在命令行界面中,切换工作目录至nebula-console文件所在目录。 +5. 在命令行界面中,切换工作目录至 nebula-console 文件所在目录。 -6. 执行如下命令连接Nebula Graph。 +6. 执行如下命令连接 Nebula Graph。 - - Linux或macOS + - Linux 或 macOS ```bash $ ./nebula-console -addr -port -u -p @@ -69,53 +69,53 @@ Nebula Graph支持多种类型客户端,包括CLI客户端、GUI客户端和 | 参数 | 说明 | | - | - | | `-h` | 显示帮助菜单。 | - | `-addr` | 设置要连接的graphd服务的IP地址。默认地址为127.0.0.1。| - | `-port` | 设置要连接的graphd服务的端口。默认端口为9669。| - | `-u/-user` | 设置Nebula Graph账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为`root`)。 | + | `-addr` | 设置要连接的 graphd 服务的 IP 地址。默认地址为 127.0.0.1。| + | `-port` | 设置要连接的 graphd 服务的端口。默认端口为 9669。| + | `-u/-user` | 设置 Nebula Graph 账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为`root`)。 | | `-p/-password` | 设置用户名对应的密码。未启用身份认证时,密码可以填写任意字符。 | - | `-t/-timeout` | 设置整数类型的连接超时时间。单位为秒,默认值为120。 | - | `-e/-eval` | 设置字符串类型的nGQL语句。连接成功后会执行一次该语句并返回结果,然后自动断开连接。 | - | `-f/-file` | 设置存储nGQL语句的文件的路径。连接成功后会执行该文件内的nGQL语句并返回结果,执行完毕后自动断开连接。 | + | `-t/-timeout` | 设置整数类型的连接超时时间。单位为秒,默认值为 120。 | + | `-e/-eval` | 设置字符串类型的 nGQL 语句。连接成功后会执行一次该语句并返回结果,然后自动断开连接。 | + | `-f/-file` | 设置存储 nGQL 语句的文件的路径。连接成功后会执行该文件内的 nGQL 语句并返回结果,执行完毕后自动断开连接。 | -用户可以使用`./nebula-console --help`命令获取所有参数的说明,也可以在[项目仓库](https://github.com/vesoft-inc/nebula-console/tree/{{console.branch}})找到更多说明。 +用户可以使用`./nebula-console --help`命令获取所有参数的说明,也可以在 [项目仓库](https://github.com/vesoft-inc/nebula-console/tree/{{console.branch}}) 找到更多说明。 -## Nebula Console命令 +## Nebula Console 命令 -Nebula Console提供部分命令,可以导出CSV文件、导出DOT文件、导入测试数据集等。 +Nebula Console 提供部分命令,可以导出 CSV 文件、导出 DOT 文件、导入测试数据集等。 !!! note 命令不区分大小写。 -### 导出CSV文件 +### 导出 CSV 文件 -CSV文件用于保存命令执行的返回结果。 +CSV 文件用于保存命令执行的返回结果。 !!! note - - CSV文件保存在当前工作目录中,即Linux命令`pwd`显示的目录。 + - CSV 文件保存在当前工作目录中,即 Linux 命令`pwd`显示的目录。 - 命令只对下一条查询语句生效。 -导出CSV文件命令如下: +导出 CSV 文件命令如下: ```ngql nebula> :CSV ``` -### 导出DOT文件 +### 导出 DOT 文件 -DOT文件同样用于保存命令执行的返回结果,其保存的结果信息和CSV文件不同。 +DOT 文件同样用于保存命令执行的返回结果,其保存的结果信息和 CSV 文件不同。 !!! Note - - DOT文件保存在当前工作目录中,即Linux命令`pwd`显示的目录。 + - DOT 文件保存在当前工作目录中,即 Linux 命令`pwd`显示的目录。 - - DOT文件的内容可以复制后在[GraphvizOnline](https://dreampuf.github.io/GraphvizOnline/)网页中粘贴,生成可视化的执行计划图。 + - DOT 文件的内容可以复制后在 [GraphvizOnline](https://dreampuf.github.io/GraphvizOnline/) 网页中粘贴,生成可视化的执行计划图。 - 命令只对下一条查询语句生效。 -导出DOT文件命令如下: +导出 DOT 文件命令如下: ```ngql nebula> :dot @@ -130,7 +130,7 @@ nebula> PROFILE FORMAT="dot" GO FROM "player100" OVER follow; ### 加载测试数据集 -测试数据集名称为nba,详细Schema信息和数据信息请使用相关`SHOW`命令查看。 +测试数据集名称为 nba,详细 Schema 信息和数据信息请使用相关`SHOW`命令查看。 加载测试数据集命令如下: @@ -140,7 +140,7 @@ nebula> :play nba ### 重复执行 -重复执行下一个命令N次,然后打印平均执行时间。命令如下: +重复执行下一个命令 N 次,然后打印平均执行时间。命令如下: ```ngql nebula> :repeat N @@ -186,7 +186,7 @@ Executed 3 times, (total time spent 3681/4734 us), (average time spent 1227/1578 ### 睡眠 -睡眠N秒。常用于修改Schema的操作中,因为修改Schema是异步实现的,需要在下一个心跳周期才同步数据。命令如下: +睡眠 N 秒。常用于修改 Schema 的操作中,因为修改 Schema 是异步实现的,需要在下一个心跳周期才同步数据。命令如下: ```ngql nebula> :sleep N @@ -194,7 +194,7 @@ nebula> :sleep N ### 断开连接 -用户可以使用`:EXIT`或者`:QUIT`从Nebula Graph断开连接。为方便使用,Nebula Console支持使用不带冒号(:)的小写命令,例如`quit`。 +用户可以使用`:EXIT`或者`:QUIT`从 Nebula Graph 断开连接。为方便使用,Nebula Console 支持使用不带冒号(:)的小写命令,例如`quit`。 示例: @@ -206,6 +206,6 @@ Bye root! ## 常见问题 -### 如何通过源码安装Nebula Console? +### 如何通过源码安装 Nebula Console? -下载和编译Nebula Console的最新源码,请参见[GitHub nebula console](https://github.com/vesoft-inc/nebula-console#build-nebula-graph-console)页面的说明。 +下载和编译 Nebula Console 的最新源码,请参见 [GitHub nebula console](https://github.com/vesoft-inc/nebula-console#build-nebula-graph-console) 页面的说明。 diff --git a/docs-2.0/reuse/source_install-nebula-graph-by-rpm-or-deb.md b/docs-2.0/reuse/source_install-nebula-graph-by-rpm-or-deb.md index 4297bc19cb4..b592860bc22 100644 --- a/docs-2.0/reuse/source_install-nebula-graph-by-rpm-or-deb.md +++ b/docs-2.0/reuse/source_install-nebula-graph-by-rpm-or-deb.md @@ -1,8 +1,8 @@ -RPM和DEB是Linux系统下常见的两种安装包格式,本文介绍如何使用RPM或DEB文件在一台机器上快速安装Nebula Graph。 +RPM 和 DEB 是 Linux 系统下常见的两种安装包格式,本文介绍如何使用 RPM 或 DEB 文件在一台机器上快速安装 Nebula Graph。 !!! note - 部署Nebula Graph集群的方式参见[使用RPM/DEB包部署集群](https://docs.nebula-graph.com.cn/{{nebula.release}}/4.deployment-and-installation/deploy-nebula-graph-cluster/)。 + 部署 Nebula Graph 集群的方式参见 [使用 RPM/DEB 包部署集群](https://docs.nebula-graph.com.cn/{{nebula.release}}/4.deployment-and-installation/deploy-nebula-graph-cluster/)。 !!! enterpriseonly @@ -10,15 +10,15 @@ RPM和DEB是Linux系统下常见的两种安装包格式,本文介绍如何使 ## 前提条件 -安装wget +安装 wget ## 下载安装包 -### 阿里云OSS下载 +### 阿里云 OSS 下载 -- 下载release版本 +- 下载 release 版本 - URL格式如下: + URL 格式如下: ```bash //Centos 7 @@ -50,14 +50,14 @@ RPM和DEB是Linux系统下常见的两种安装包格式,本文介绍如何使 wget https://oss-cdn.nebula-graph.com.cn/package/{{ nebula.release }}/nebula-graph-{{ nebula.release }}.ubuntu1804.amd64.deb.sha256sum.txt ``` -- 下载日常开发版本(nightly) +- 下载日常开发版本 (nightly) !!! danger - nightly 版本通常用于测试新功能、新特性,请**不要**在生产环境中使用 nightly 版本。 - nightly 版本不保证每日都能完整发布,也不保证是否会更改文件名。 - URL格式如下: + URL 格式如下: ```bash //Centos 7 @@ -90,48 +90,48 @@ RPM和DEB是Linux系统下常见的两种安装包格式,本文介绍如何使 ``` -## 安装Nebula Graph +## 安装 Nebula Graph -- 安装RPM包 +- 安装 RPM 包 ```bash $ sudo rpm -ivh --prefix= ``` - 例如在默认路径下安装{{nebula.release}}版本的RPM包: + 例如在默认路径下安装{{nebula.release}}版本的 RPM 包: ```bash sudo rpm -ivh nebula-graph-{{nebula.release}}.el7.x86_64.rpm ``` -- 安装DEB包 +- 安装 DEB 包 ```bash $ sudo dpkg -i --instdir== ``` - 例如在默认路径下安装{{nebula.release}}版本的DEB包: + 例如在默认路径下安装{{nebula.release}}版本的 DEB 包: ```bash sudo dpkg -i nebula-graph-{{nebula.release}}.ubuntu1804.amd64.deb @@ -143,7 +143,7 @@ RPM和DEB是Linux系统下常见的两种安装包格式,本文介绍如何使 ## 后续操作 -- (企业版)[设置License](https://docs.nebula-graph.com.cn/{{nebula.release}}/4.deployment-and-installation/deploy-license) +- (企业版)[设置 License](https://docs.nebula-graph.com.cn/{{nebula.release}}/4.deployment-and-installation/deploy-license) -- [启动Nebula Graph](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/5.start-stop-service/) -- [连接Nebula Graph](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/3.connect-to-nebula-graph/) +- [启动 Nebula Graph](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/5.start-stop-service/) +- [连接 Nebula Graph](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/3.connect-to-nebula-graph/) diff --git a/docs-2.0/reuse/source_manage-service.md b/docs-2.0/reuse/source_manage-service.md index bfe6fda6ea4..3cddad1ca50 100644 --- a/docs-2.0/reuse/source_manage-service.md +++ b/docs-2.0/reuse/source_manage-service.md @@ -1,4 +1,4 @@ -Nebula Graph使用脚本`nebula.service`管理服务,包括启动、停止、重启、中止和查看。 +Nebula Graph 使用脚本`nebula.service`管理服务,包括启动、停止、重启、中止和查看。 `nebula.service`的默认路径是`/usr/local/nebula/scripts`,如果修改过安装路径,请使用实际路径。 @@ -20,16 +20,16 @@ $ sudo /usr/local/nebula/scripts/nebula.service |`restart`|重启服务。| |`kill`|中止服务。| |`status`|查看服务状态。| -|`metad`|管理Meta服务。| -|`graphd`|管理Graph服务。| -|`storaged`|管理Storage服务。| +|`metad`|管理 Meta 服务。| +|`graphd`|管理 Graph 服务。| +|`storaged`|管理 Storage 服务。| |`all`|管理所有服务。| -## 启动Nebula Graph服务 +## 启动 Nebula Graph 服务 ### 非容器部署 -对于使用RPM或DEB文件安装的Nebula Graph,执行如下命令启动服务: +对于使用 RPM 或 DEB 文件安装的 Nebula Graph,执行如下命令启动服务: ```bash $ sudo /usr/local/nebula/scripts/nebula.service start all @@ -43,7 +43,7 @@ $ sudo /usr/local/nebula/scripts/nebula.service start all ### 容器部署 -对于使用Docker Compose部署的Nebula Graph,在`nebula-docker-compose/`目录内执行如下命令启动服务: +对于使用 Docker Compose 部署的 Nebula Graph,在`nebula-docker-compose/`目录内执行如下命令启动服务: ```bash [nebula-docker-compose]$ docker-compose up -d @@ -60,7 +60,7 @@ Creating nebula-docker-compose_graphd2_1 ... done Creating nebula-docker-compose_graphd_1 ... done ``` -## 停止Nebula Graph服务 +## 停止 Nebula Graph 服务 !!! danger @@ -68,7 +68,7 @@ Creating nebula-docker-compose_graphd_1 ... done ### 非容器部署 -执行如下命令停止Nebula Graph服务: +执行如下命令停止 Nebula Graph 服务: ```bash $ sudo /usr/local/nebula/scripts/nebula.service stop all @@ -82,7 +82,7 @@ $ sudo /usr/local/nebula/scripts/nebula.service stop all ### 容器部署 -在`nebula-docker-compose/`目录内执行如下命令停止Nebula Graph服务: +在`nebula-docker-compose/`目录内执行如下命令停止 Nebula Graph 服务: ```bash nebula-docker-compose]$ docker-compose down @@ -109,19 +109,19 @@ Removing network nebula-docker-compose_nebula-net !!! Note - 命令`docker-compose down -v`将会**删除**所有本地Nebula Graph的数据。如果使用的是developing或nightly版本,并且有一些兼容性问题,请尝试这个命令。 + 命令`docker-compose down -v`将会**删除**所有本地 Nebula Graph 的数据。如果使用的是 developing 或 nightly 版本,并且有一些兼容性问题,请尝试这个命令。 -## 查看Nebula Graph服务 +## 查看 Nebula Graph 服务 ### 非容器部署 -执行如下命令查看Nebula Graph服务状态: +执行如下命令查看 Nebula Graph 服务状态: ```bash $ sudo /usr/local/nebula/scripts/nebula.service status all ``` -- 如果返回如下结果,表示Nebula Graph服务正常运行。 +- 如果返回如下结果,表示 Nebula Graph 服务正常运行。 ```bash [INFO] nebula-metad(de03025): Running as 26601, Listening on 9559 @@ -129,7 +129,7 @@ $ sudo /usr/local/nebula/scripts/nebula.service status all [INFO] nebula-storaged(de03025): Running as 26709, Listening on 9779 ``` -- 如果返回类似如下结果,表示Nebula Graph服务异常,可以根据异常服务信息进一步排查,或者在[Nebula Graph社区](https://discuss.nebula-graph.com.cn/)寻求帮助。 +- 如果返回类似如下结果,表示 Nebula Graph 服务异常,可以根据异常服务信息进一步排查,或者在 [Nebula Graph 社区](https://discuss.nebula-graph.com.cn/) 寻求帮助。 ```bash [INFO] nebula-metad: Running as 25600, Listening on 9559 @@ -137,11 +137,11 @@ $ sudo /usr/local/nebula/scripts/nebula.service status all [INFO] nebula-storaged: Running as 25646, Listening on 9779 ``` -Nebula Graph服务由Meta服务、Graph服务和Storage服务共同提供,这三种服务的配置文件都保存在安装目录的`etc`目录内,默认路径为`/usr/local/nebula/etc/`,用户可以检查相应的配置文件排查问题。 +Nebula Graph 服务由 Meta 服务、Graph 服务和 Storage 服务共同提供,这三种服务的配置文件都保存在安装目录的`etc`目录内,默认路径为`/usr/local/nebula/etc/`,用户可以检查相应的配置文件排查问题。 ### 容器部署 -在`nebula-docker-compose`目录内执行如下命令查看Nebula Graph服务状态: +在`nebula-docker-compose`目录内执行如下命令查看 Nebula Graph 服务状态: ```bash nebula-docker-compose]$ docker-compose ps @@ -166,7 +166,7 @@ nebula-docker-compose_storaged2_1 ./bin/nebula-storaged --fl ... Up (healthy 如果服务有异常,用户可以先确认异常的容器名称(例如`nebula-docker-compose_graphd2_1`), -然后执行`docker ps`查看对应的`CONTAINER ID`(示例为`2a6c56c405f5`)。 +然后执行`docker ps`查看对应的`CONTAINER ID`(示例为`2a6c56c405f5`)。 ```bash [nebula-docker-compose]$ docker ps @@ -191,4 +191,4 @@ nebula-docker-compose]$ docker exec -it 2a6c56c405f5 bash ## 下一步 -[连接Nebula Graph](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/3.connect-to-nebula-graph/) +[连接 Nebula Graph](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/3.connect-to-nebula-graph/) diff --git a/docs-2.0/spark-connector/reader/sc-ug-reader-example.md b/docs-2.0/spark-connector/reader/sc-ug-reader-example.md index f763e7d98ff..4222bc9dac3 100644 --- a/docs-2.0/spark-connector/reader/sc-ug-reader-example.md +++ b/docs-2.0/spark-connector/reader/sc-ug-reader-example.md @@ -15,7 +15,7 @@ - 已经获取 Nebula Graph 数据库的以下信息: - 图空间名称和分区数量(如果创建图空间时未设置分区数量,则默认使用 100) - - Tag和Edge type的名称以及属性 + - Tag 和 Edge type 的名称以及属性 - Meta 服务所在机器的 IP 地址及端口号 ## 操作步骤 @@ -80,13 +80,13 @@ - `loadVerticesToDF(, )`,所有参数均为必需参数。 - - ``:配置为指定 Nebula Graph 图空间中某个Tag的名称。 - - ``:配置为指定Tag的属性名称,不允许为空。如果一个Tag有多个属性,则以英文逗号分隔。如果指定了属性名称,表示只读取指定的属性。如果配置为 `*`,表示读取指定Tag的所有属性。 + - ``:配置为指定 Nebula Graph 图空间中某个 Tag 的名称。 + - ``:配置为指定 Tag 的属性名称,不允许为空。如果一个 Tag 有多个属性,则以英文逗号分隔。如果指定了属性名称,表示只读取指定的属性。如果配置为 `*`,表示读取指定 Tag 的所有属性。 - `loadEdgesToDF(, )`,所有参数均为必需参数。 - - ``:配置为指定 Nebula Graph 图空间中某个Edge type的名称。 - - ``:配置为指定Edge type的属性名称,不允许为空。如果一个Edge type有多个属性,则以英文逗号分隔。如果指定了属性名称,表示只读取指定的属性,如果配置为 `*` 表示读取指定Edge type的所有属性。 + - ``:配置为指定 Nebula Graph 图空间中某个 Edge type 的名称。 + - ``:配置为指定 Edge type 的属性名称,不允许为空。如果一个 Edge type 有多个属性,则以英文逗号分隔。如果指定了属性名称,表示只读取指定的属性,如果配置为 `*` 表示读取指定 Edge type 的所有属性。 以下为读取结果示例。 diff --git a/docs-2.0/spark-connector/reader/sc-ug-what-is-reader.md b/docs-2.0/spark-connector/reader/sc-ug-what-is-reader.md index 8c0d2828896..31ac830f4c3 100644 --- a/docs-2.0/spark-connector/reader/sc-ug-what-is-reader.md +++ b/docs-2.0/spark-connector/reader/sc-ug-what-is-reader.md @@ -1,6 +1,6 @@ # 什么是 Nebula Spark Connector Reader -Nebula Spark Connector Reader 是 Nebula Spark Connector 的组成部分,提供了 Spark SQL 接口,用户可以使用 Spark SQL 接口编程读取 Nebula Graph 图数据,单次读取一个Tag或Edge type的数据,并将读取的结果组装成 Spark 的 DataFrame。读出的 DataFrame 可以通过 Nebula Spark Connector Writer 写入 Nebula Graph 数据库或实现不同图空间之间的数据迁移。 +Nebula Spark Connector Reader 是 Nebula Spark Connector 的组成部分,提供了 Spark SQL 接口,用户可以使用 Spark SQL 接口编程读取 Nebula Graph 图数据,单次读取一个 Tag 或 Edge type 的数据,并将读取的结果组装成 Spark 的 DataFrame。读出的 DataFrame 可以通过 Nebula Spark Connector Writer 写入 Nebula Graph 数据库或实现不同图空间之间的数据迁移。 ## Nebula Spark Connector Reader 实现原理 diff --git a/docs-2.0/spark-connector/sc-ug-what-is-spark-connector.md b/docs-2.0/spark-connector/sc-ug-what-is-spark-connector.md index 47a4819df22..3a02510afd3 100644 --- a/docs-2.0/spark-connector/sc-ug-what-is-spark-connector.md +++ b/docs-2.0/spark-connector/sc-ug-what-is-spark-connector.md @@ -2,7 +2,7 @@ [Nebula Spark Connector](https://github.com/vesoft-inc/nebula-java/tree/v1.0/tools "点击前往 GitHub")(在本手册中简称为 Spark Connector)是一个 Spark 连接器,提供了通过 Spark 标准形式读写 Nebula Graph 数据库的能力,由以下两部分组成: -- Reader:提供了一个 Spark SQL 接口,用户可以使用 Spark SQL 接口编程读取 Nebula Graph 图数据,单次读取一个点或Edge type的数据,并将读取的结果组装成 Spark 的 DataFrame。参考 [Nebula Spark Connector Reader](reader/sc-ug-what-is-reader.md)。 +- Reader:提供了一个 Spark SQL 接口,用户可以使用 Spark SQL 接口编程读取 Nebula Graph 图数据,单次读取一个点或 Edge type 的数据,并将读取的结果组装成 Spark 的 DataFrame。参考 [Nebula Spark Connector Reader](reader/sc-ug-what-is-reader.md)。 - Writer:提供了一个 Spark SQL 接口,用户可以使用 Spark SQL 接口编程将 DataFrame 格式的数据逐条或批量写入 Nebula Graph。参考 [Nebula Spark Connector Writer](writer/sc-ug-what-is-writer.md)。 diff --git a/docs-2.0/spark-connector/writer/sc-ug-what-is-writer.md b/docs-2.0/spark-connector/writer/sc-ug-what-is-writer.md index 79ca6645368..5371ea3bc20 100644 --- a/docs-2.0/spark-connector/writer/sc-ug-what-is-writer.md +++ b/docs-2.0/spark-connector/writer/sc-ug-what-is-writer.md @@ -28,7 +28,7 @@ Nebula Spark Connector Writer 的实现类图如下: ![Nebula Spark Connector Writer 实现类图](../figs/sc-ug-002.png "Nebula Spark Connector Writer 实现类图") -`NebulaVertexWriter` 和 `NebulaEdgeWriter的write` 方法中定义了具体写入逻辑。逐条写入数据的逻辑概括如下: +`NebulaVertexWriter` 和 `NebulaEdgeWriter 的 write` 方法中定义了具体写入逻辑。逐条写入数据的逻辑概括如下: 1. 创建客户端,连接 Nebula Graph 的 Graph 服务。 2. 指定即将写入数据的 Nebula Graph 图空间。 diff --git a/docs-2.0/spark-connector/writer/sc-ug-writer-example.md b/docs-2.0/spark-connector/writer/sc-ug-writer-example.md index aad3d142e76..9accc797011 100644 --- a/docs-2.0/spark-connector/writer/sc-ug-writer-example.md +++ b/docs-2.0/spark-connector/writer/sc-ug-writer-example.md @@ -19,8 +19,8 @@ - 在 Nebula Graph 中创建 Schema,并获取以下信息: - 图空间名称和分区数量。在本示例中,对应的信息为 `nb` 和 `100`。 - - 点的信息,包括Tag和 VID 映射策略(`hash`)。 - - 边的信息,包括起点和终点对应的Tag,以及 VID 映射策略(`hash`)。 + - 点的信息,包括 Tag 和 VID 映射策略(`hash`)。 + - 边的信息,包括起点和终点对应的 Tag,以及 VID 映射策略(`hash`)。 - (可选)如果是批量写入,需要确认单次写入的最大数据条数,默认为 2000。详见本文 `batchInsert` 配置项说明。 @@ -80,12 +80,12 @@ - `partitionNum`:在 Nebula Graph 中创建图空间时指定的 `partitionNum` 的值。如果未指定,这里填写 `100`。 - `writeVertices(tag: String, vertexField: String, policy: String = "")` - - `tag`:点对应的 Nebula Graph 图空间中的Tag名称。 + - `tag`:点对应的 Nebula Graph 图空间中的 Tag 名称。 - `vertexField`:DataFrame 中可作为 Nebula Graph 点 VID 的列。例如,如果 DataFrame 有三列,分别为 a、b、c,其中 a 列作为点 VID 列,则该参数设置为 `"a"`。 - `policy`:如果 DataFrame 中 `vertexField` 列的数据类型非数值型,则需要配置 Nebula Graph 中 VID 的映射策略,即该参数设置为 `"hash"`。如果 `vertexField` 列的数据类型为整数型,则不需要配置。 - `writeEdges(edge: String, srcVertexField: String, dstVertexField: String, policy: String = "")` - - `edge`:边对应的 Nebula Graph 图空间中的Edge type名称。 + - `edge`:边对应的 Nebula Graph 图空间中的 Edge type 名称。 - `srcVertexField` 和 `dstVertexField`:DataFrame 中可作为边起点和边终点的列。列值必须同为整数型或同为非数值型。 - `policy`:如果 DataFrame 中 `srcVertexField` 列和 `dstVertexField` 列的数据类型非数值型,则需要配置 Nebula Graph 中 VID 的映射策略,即该参数设置为 `"hash"`。如果 `srcVertexField` 列和 `dstVertexField` 列的数据类型为整数型,则不需要配置。 @@ -122,13 +122,13 @@ new NebulaBatchWriterUtils() - `batchToNebulaVertex(data: DataFrame, tag: String, vertexField: String, policy: String = "")`: - `data`:待写入 Nebula Graph 的 DataFrame 数据。 - - `tag`:Nebula Graph 图空间中对应的Tag名称。 - - `vertexField`:DataFrame 中可作为 Nebula Graph 点 VID 的列。例如,如果 DataFrame 有三列,分别为 a、b、c,其中a 列作为点 VID 列,则该参数设置为 `"a"`。 + - `tag`:Nebula Graph 图空间中对应的 Tag 名称。 + - `vertexField`:DataFrame 中可作为 Nebula Graph 点 VID 的列。例如,如果 DataFrame 有三列,分别为 a、b、c,其中 a 列作为点 VID 列,则该参数设置为 `"a"`。 - `policy`:如果 DataFrame 中 `vertexField` 列的数据类型非数值型,则需要配置 Nebula Graph 中 VID 的映射策略,即该参数设置为 `"hash"`。如果 `vertexField` 列的数据类型为整数型,则不需要配置。 - `batchToNebulaEdge(data: DataFrame,  edge: String, srcVertexField: String, dstVertexField: String, rankField: String = "",  policy: String = "")`: - `data`:待写入 Nebula Graph 的 DataFrame 数据。 - - `edge`:Nebula Graph 中对应的Edge type。 + - `edge`:Nebula Graph 中对应的 Edge type。 - `srcVertexField` 和 `dstVertexField`:DataFrame 中可作为边起点和边终点的列。列值必须同为整数型或同为非数值型。 - `rankField`:DataFrame 中可作为边 `rank` 值的列,可选配。 - `policy`:可选。如果 DataFrame 中 `srcVertexField` 列和 `dstVertexField` 列的数据类型非数值型,则需要配置 Nebula Graph 中 VID 的映射策略,即该参数设置为 `"hash"`。如果 `srcVertexField` 列和 `dstVertexField` 列的数据类型为整数型,则不需要配置。 diff --git a/mkdocs.yml b/mkdocs.yml index 330bf90462c..bdf7c561a3d 100755 --- a/mkdocs.yml +++ b/mkdocs.yml @@ -122,32 +122,32 @@ extra: nav: - 前言: README.md - 简介: - - 什么是Nebula Graph: 1.introduction/1.what-is-nebula-graph.md + - 什么是 Nebula Graph: 1.introduction/1.what-is-nebula-graph.md - 数据模型: 1.introduction/2.data-model.md - 路径: 1.introduction/2.1.path.md - VID: 1.introduction/3.vid.md - 服务架构: - 架构总览: 1.introduction/3.nebula-graph-architecture/1.architecture-overview.md - - Meta服务: 1.introduction/3.nebula-graph-architecture/2.meta-service.md - - Graph服务: 1.introduction/3.nebula-graph-architecture/3.graph-service.md - - Storage服务: 1.introduction/3.nebula-graph-architecture/4.storage-service.md + - Meta 服务: 1.introduction/3.nebula-graph-architecture/2.meta-service.md + - Graph 服务: 1.introduction/3.nebula-graph-architecture/3.graph-service.md + - Storage 服务: 1.introduction/3.nebula-graph-architecture/4.storage-service.md - 快速入门: - 快速入门流程: 2.quick-start/1.quick-start-workflow.md - - 步骤1:安装Nebula Graph: 2.quick-start/2.install-nebula-graph.md - - 步骤2:启动Nebula Graph: 2.quick-start/5.start-stop-service.md - - 步骤3:连接Nebula Graph: 2.quick-start/3.connect-to-nebula-graph.md + - 步骤1:安装 Nebula Graph: 2.quick-start/2.install-nebula-graph.md + - 步骤2:启动 Nebula Graph: 2.quick-start/5.start-stop-service.md + - 步骤3:连接 Nebula Graph: 2.quick-start/3.connect-to-nebula-graph.md - 步骤4:使用常用命令: 2.quick-start/4.nebula-graph-crud.md - - nGQL命令汇总: 2.quick-start/6.cheatsheet-for-ngql-command.md + - nGQL 命令汇总: 2.quick-start/6.cheatsheet-for-ngql-command.md - - nGQL指南: - - nGQL概述: - - 什么是nGQL: 3.ngql-guide/1.nGQL-overview/1.overview.md + - nGQL 指南: + - nGQL 概述: + - 什么是 nGQL: 3.ngql-guide/1.nGQL-overview/1.overview.md - 图模式: 3.ngql-guide/1.nGQL-overview/3.graph-patterns.md - 注释: 3.ngql-guide/1.nGQL-overview/comments.md - 大小写区分: 3.ngql-guide/1.nGQL-overview/identifier-case-sensitivity.md - 关键字: 3.ngql-guide/1.nGQL-overview/keywords-and-reserved-words.md - - nGQL风格指南: 3.ngql-guide/1.nGQL-overview/ngql-style-guide.md + - nGQL 风格指南: 3.ngql-guide/1.nGQL-overview/ngql-style-guide.md - 数据类型: - 数值: 3.ngql-guide/3.data-types/1.numeric.md @@ -180,16 +180,16 @@ nav: - 数学函数: 3.ngql-guide/6.functions-and-expressions/1.math.md - 字符串函数: 3.ngql-guide/6.functions-and-expressions/2.string.md - 日期时间函数: 3.ngql-guide/6.functions-and-expressions/3.date-and-time.md - - Schema函数: 3.ngql-guide/6.functions-and-expressions/4.schema.md - - CASE表达式: 3.ngql-guide/6.functions-and-expressions/5.case-expressions.md + - Schema 函数: 3.ngql-guide/6.functions-and-expressions/4.schema.md + - CASE 表达式: 3.ngql-guide/6.functions-and-expressions/5.case-expressions.md - 列表函数: 3.ngql-guide/6.functions-and-expressions/6.list.md - - count函数: 3.ngql-guide/6.functions-and-expressions/7.count.md - - collect函数: 3.ngql-guide/6.functions-and-expressions/10.collect.md - - reduce函数: 3.ngql-guide/6.functions-and-expressions/11.reduce.md - - hash函数: 3.ngql-guide/6.functions-and-expressions/12.hash.md - - concat函数: 3.ngql-guide/6.functions-and-expressions/13.concat.md + - count 函数: 3.ngql-guide/6.functions-and-expressions/7.count.md + - collect 函数: 3.ngql-guide/6.functions-and-expressions/10.collect.md + - reduce 函数: 3.ngql-guide/6.functions-and-expressions/11.reduce.md + - hash 函数: 3.ngql-guide/6.functions-and-expressions/12.hash.md + - concat 函数: 3.ngql-guide/6.functions-and-expressions/13.concat.md - 谓词函数: 3.ngql-guide/6.functions-and-expressions/8.predicate.md - - geo函数: 3.ngql-guide/6.functions-and-expressions/14.geo.md + - geo 函数: 3.ngql-guide/6.functions-and-expressions/14.geo.md - 自定义函数: 3.ngql-guide/6.functions-and-expressions/9.user-defined-functions.md - 通用查询语句: @@ -235,7 +235,7 @@ nav: - DESCRIBE SPACE: 3.ngql-guide/9.space-statements/4.describe-space.md - DROP SPACE: 3.ngql-guide/9.space-statements/5.drop-space.md - - Tag语句: + - Tag 语句: - CREATE TAG: 3.ngql-guide/10.tag-statements/1.create-tag.md - DROP TAG: 3.ngql-guide/10.tag-statements/2.drop-tag.md - ALTER TAG: 3.ngql-guide/10.tag-statements/3.alter-tag.md @@ -243,7 +243,7 @@ nav: - DESCRIBE TAG: 3.ngql-guide/10.tag-statements/5.describe-tag.md - DELETE TAG: 3.ngql-guide/10.tag-statements/6.delete-tag.md - 增加和删除标签: 3.ngql-guide/10.tag-statements/improve-query-by-tag-index.md - - Edge type语句: + - Edge type 语句: - CREATE EDGE: 3.ngql-guide/11.edge-type-statements/1.create-edge.md - DROP EDGE: 3.ngql-guide/11.edge-type-statements/2.drop-edge.md - ALTER EDGE: 3.ngql-guide/11.edge-type-statements/3.alter-edge.md @@ -276,7 +276,7 @@ nav: # - 索引介绍: 3.ngql-guide/14.native-index-statements/README.md - 全文索引限制: 4.deployment-and-installation/6.deploy-text-based-index/1.text-based-index-restrictions.md - 部署全文索引: 4.deployment-and-installation/6.deploy-text-based-index/2.deploy-es.md - - 部署Raft listener: 4.deployment-and-installation/6.deploy-text-based-index/3.deploy-listener.md + - 部署 Raft listener: 4.deployment-and-installation/6.deploy-text-based-index/3.deploy-listener.md - 全文搜索: 3.ngql-guide/15.full-text-index-statements/1.search-with-text-based-index.md - 子图和路径: @@ -296,50 +296,50 @@ nav: - 准备资源: 4.deployment-and-installation/1.resource-preparations.md - 编译与安装: - 使用源码安装: 4.deployment-and-installation/2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md - - 使用RPM/DEB包安装: 4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md - - 使用tar.gz文件安装: 4.deployment-and-installation/2.compile-and-install-nebula-graph/4.install-nebula-graph-from-tar.md - - 使用Docker Compose部署: 4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md - - 使用RPM/DEB包部署多机集群: 4.deployment-and-installation/2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster.md - - 设置企业版License: 4.deployment-and-installation/deploy-license.md + - 使用 RPM/DEB 包安装: 4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md + - 使用 tar.gz 文件安装: 4.deployment-and-installation/2.compile-and-install-nebula-graph/4.install-nebula-graph-from-tar.md + - 使用 Docker Compose 部署: 4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md + - 使用 RPM/DEB 包部署多机集群: 4.deployment-and-installation/2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster.md + - 设置企业版 License: 4.deployment-and-installation/deploy-license.md - 管理服务: 4.deployment-and-installation/manage-service.md - 连接服务: 4.deployment-and-installation/connect-to-nebula-graph.md - 升级版本: - 升级历史版本至当前版本: 4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-graph-to-latest.md - - 升级v2.0.x至当前版本: 4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-from-200-to-latest.md - - 卸载Nebula Graph: 4.deployment-and-installation/4.uninstall-nebula-graph.md + - 升级 v2.0.x 至当前版本: 4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-from-200-to-latest.md + - 卸载 Nebula Graph: 4.deployment-and-installation/4.uninstall-nebula-graph.md - 配置与日志: - 配置: - 配置管理: 5.configurations-and-logs/1.configurations/1.configurations.md - - Meta服务配置: 5.configurations-and-logs/1.configurations/2.meta-config.md - - Graph服务配置: 5.configurations-and-logs/1.configurations/3.graph-config.md - - Storage服务配置: 5.configurations-and-logs/1.configurations/4.storage-config.md - - Linux内核配置: 5.configurations-and-logs/1.configurations/6.kernel-config.md + - Meta 服务配置: 5.configurations-and-logs/1.configurations/2.meta-config.md + - Graph 服务配置: 5.configurations-and-logs/1.configurations/3.graph-config.md + - Storage 服务配置: 5.configurations-and-logs/1.configurations/4.storage-config.md + - Linux 内核配置: 5.configurations-and-logs/1.configurations/6.kernel-config.md - 日志: - 日志配置: 5.configurations-and-logs/2.log-management/logs.md - 监控: - - 查询Nebula Graph监控指标: 6.monitor-and-metrics/1.query-performance-metrics.md - - RocksDB统计数据: 6.monitor-and-metrics/2.rocksdb-statistics.md + - 查询 Nebula Graph 监控指标: 6.monitor-and-metrics/1.query-performance-metrics.md + - RocksDB 统计数据: 6.monitor-and-metrics/2.rocksdb-statistics.md - 数据安全: - 验证和授权: - 身份验证: 7.data-security/1.authentication/1.authentication.md - 用户管理: 7.data-security/1.authentication/2.management-user.md - 内置角色权限: 7.data-security/1.authentication/3.role-list.md - - OpenLDAP验证: 7.data-security/1.authentication/4.ldap.md + - OpenLDAP 验证: 7.data-security/1.authentication/4.ldap.md # - 备份恢复: -# - 什么是BR: 7.data-security/2.backup-restore/1.what-is-br.md -# - 编译BR: 7.data-security/2.backup-restore/2.compile-br.md -# - 使用BR备份数据: 7.data-security/2.backup-restore/3.br-backup-data.md -# - 使用BR恢复数据: 7.data-security/2.backup-restore/4.br-restore-data.md +# - 什么是 BR: 7.data-security/2.backup-restore/1.what-is-br.md +# - 编译 BR: 7.data-security/2.backup-restore/2.compile-br.md +# - 使用 BR 备份数据: 7.data-security/2.backup-restore/3.br-backup-data.md +# - 使用 BR 恢复数据: 7.data-security/2.backup-restore/4.br-restore-data.md - 管理快照: 7.data-security/3.manage-snapshot.md - Group&Zone: 7.data-security/5.zone.md - - SSL加密: 7.data-security/4.ssl.md + - SSL 加密: 7.data-security/4.ssl.md - 最佳实践: - Compaction: 8.service-tuning/compaction.md - - Storage负载均衡: 8.service-tuning/load-balance.md + - Storage 负载均衡: 8.service-tuning/load-balance.md - 图建模: 8.service-tuning/2.graph-modeling.md - 系统建模: 8.service-tuning/3.system-design.md - 执行计划: 8.service-tuning/4.plan.md @@ -355,7 +355,7 @@ nav: - Nebula Go: 14.client/6.nebula-go-client.md - Nebula Graph Studio: - - Studio版本更新说明: nebula-studio/about-studio/st-ug-release-note.md + - Studio 版本更新说明: nebula-studio/about-studio/st-ug-release-note.md - 认识 Nebula Graph Studio: - 什么是 Nebula Graph Studio: nebula-studio/about-studio/st-ug-what-is-graph-studio.md - 名词解释: nebula-studio/about-studio/st-ug-terms.md @@ -375,8 +375,8 @@ nav: - 操作指南: - 管理 Schema: - 操作图空间: nebula-studio/manage-schema/st-ug-crud-space.md - - 操作Tag: nebula-studio/manage-schema/st-ug-crud-tag.md - - 操作Edge type: nebula-studio/manage-schema/st-ug-crud-edge-type.md + - 操作 Tag: nebula-studio/manage-schema/st-ug-crud-tag.md + - 操作 Edge type: nebula-studio/manage-schema/st-ug-crud-edge-type.md - 操作索引: nebula-studio/manage-schema/st-ug-crud-index.md - 使用控制台: - 控制台界面: nebula-studio/use-console/st-ug-console.md @@ -388,15 +388,15 @@ nav: - Studio 常见问题: nebula-studio/troubleshooting/st-ug-faq.md - Nebula Dashboard(社区版): - - 什么是Nebula Dashboard: nebula-dashboard/1.what-is-dashboard.md - - 部署Dashboard: nebula-dashboard/2.deploy-dashboard.md - - 连接Dashboard: nebula-dashboard/3.connect-dashboard.md - - Dashboard页面介绍: nebula-dashboard/4.use-dashboard.md + - 什么 是Nebula Dashboard: nebula-dashboard/1.what-is-dashboard.md + - 部署 Dashboard: nebula-dashboard/2.deploy-dashboard.md + - 连接 Dashboard: nebula-dashboard/3.connect-dashboard.md + - Dashboard 页面介绍: nebula-dashboard/4.use-dashboard.md - 监控指标说明: nebula-dashboard/6.monitor-parameter.md - Nebula Dashboard(企业版): - - 什么是Nebula Dashboard: nebula-dashboard-ent/1.what-is-dashboard-ent.md - - 部署Dashboard: nebula-dashboard-ent/2.deploy-connect-dashboard-ent.md + - 什么是 Nebula Dashboard: nebula-dashboard-ent/1.what-is-dashboard-ent.md + - 部署 Dashboard: nebula-dashboard-ent/2.deploy-connect-dashboard-ent.md - 创建及导入集群: - 创建集群: nebula-dashboard-ent/3.create-import-dashboard/1.create-cluster.md - 导入集群: nebula-dashboard-ent/3.create-import-dashboard/2.import-cluster.md @@ -410,10 +410,10 @@ nav: - 权限管理: nebula-dashboard-ent/5.account-management.md - 系统设置: nebula-dashboard-ent/6.system-settings.md - 监控指标说明: nebula-dashboard-ent/7.monitor-parameter.md - - 常见问题FAQ: nebula-dashboard-ent/8.faq.md + - 常见问题 FAQ: nebula-dashboard-ent/8.faq.md - Nebula Explorer: - - 什么是Nebula Explorer: nebula-explorer/about-explorer/ex-ug-what-is-explorer.md + - 什么是 Nebula Explorer: nebula-explorer/about-explorer/ex-ug-what-is-explorer.md - 安装与登录: - 部署 Explorer: nebula-explorer/deploy-connect/ex-ug-deploy.md - 连接数据库: nebula-explorer/deploy-connect/ex-ug-connect.md @@ -427,48 +427,48 @@ nav: - 快捷键: nebula-explorer/operation-guide/ex-ug-shortcuts.md - Nebula Importer: - - 使用Nebula Importer: nebula-importer/use-importer.md + - 使用 Nebula Importer: nebula-importer/use-importer.md - 有表头配置说明: nebula-importer/config-with-header.md - 无表头配置说明: nebula-importer/config-without-header.md - Nebula Exchange: - - 认识Nebula Exchange: - - 什么是Nebula Exchange: nebula-exchange/about-exchange/ex-ug-what-is-exchange.md + - 认识 Nebula Exchange: + - 什么是 Nebula Exchange: nebula-exchange/about-exchange/ex-ug-what-is-exchange.md - 使用限制: nebula-exchange/about-exchange/ex-ug-limitations.md - - 获取Nebula Exchange: nebula-exchange/ex-ug-compile.md + - 获取 Nebula Exchange: nebula-exchange/ex-ug-compile.md - 参数说明: - 导入命令参数: nebula-exchange/parameter-reference/ex-ug-para-import-command.md - 配置参数: nebula-exchange/parameter-reference/ex-ug-parameter.md - - 使用Nebula Exchange: - - 导入CSV文件数据: nebula-exchange/use-exchange/ex-ug-import-from-csv.md - - 导入JSON文件数据: nebula-exchange/use-exchange/ex-ug-import-from-json.md - - 导入ORC文件数据: nebula-exchange/use-exchange/ex-ug-import-from-orc.md - - 导入Parquet文件数据: nebula-exchange/use-exchange/ex-ug-import-from-parquet.md - - 导入HBase数据: nebula-exchange/use-exchange/ex-ug-import-from-hbase.md - - 导入MySQL数据: nebula-exchange/use-exchange/ex-ug-import-from-mysql.md - - 导入ClickHouse数据: nebula-exchange/use-exchange/ex-ug-import-from-clickhouse.md - - 导入Neo4j数据: nebula-exchange/use-exchange/ex-ug-import-from-neo4j.md - - 导入Hive数据: nebula-exchange/use-exchange/ex-ug-import-from-hive.md - - 导入MaxCompute数据: nebula-exchange/use-exchange/ex-ug-import-from-maxcompute.md - - 导入Pulsar数据: nebula-exchange/use-exchange/ex-ug-import-from-pulsar.md - - 导入Kafka数据: nebula-exchange/use-exchange/ex-ug-import-from-kafka.md - - 导入SST文件数据: nebula-exchange/use-exchange/ex-ug-import-from-sst.md - - 导出Nebula Graph数据: nebula-exchange/use-exchange/ex-ug-export-from-nebula.md + - 使用 Nebula Exchange: + - 导入 CSV 文件数据: nebula-exchange/use-exchange/ex-ug-import-from-csv.md + - 导入 JSON 文件数据: nebula-exchange/use-exchange/ex-ug-import-from-json.md + - 导入 ORC 文件数据: nebula-exchange/use-exchange/ex-ug-import-from-orc.md + - 导入 Parquet 文件数据: nebula-exchange/use-exchange/ex-ug-import-from-parquet.md + - 导入 HBase 数据: nebula-exchange/use-exchange/ex-ug-import-from-hbase.md + - 导入 MySQL 数据: nebula-exchange/use-exchange/ex-ug-import-from-mysql.md + - 导入 ClickHouse 数据: nebula-exchange/use-exchange/ex-ug-import-from-clickhouse.md + - 导入 Neo4j 数据: nebula-exchange/use-exchange/ex-ug-import-from-neo4j.md + - 导入 Hive 数据: nebula-exchange/use-exchange/ex-ug-import-from-hive.md + - 导入 MaxCompute 数据: nebula-exchange/use-exchange/ex-ug-import-from-maxcompute.md + - 导入 Pulsar 数据: nebula-exchange/use-exchange/ex-ug-import-from-pulsar.md + - 导入 Kafka 数据: nebula-exchange/use-exchange/ex-ug-import-from-kafka.md + - 导入 SST 文件数据: nebula-exchange/use-exchange/ex-ug-import-from-sst.md + - 导出 Nebula Graph 数据: nebula-exchange/use-exchange/ex-ug-export-from-nebula.md - Exchange 常见问题: nebula-exchange/ex-ug-FAQ.md - Nebula Operator: - - 什么是Nebula Operator: nebula-operator/1.introduction-to-nebula-operator.md + - 什么是 Nebula Operator: nebula-operator/1.introduction-to-nebula-operator.md - 使用流程: nebula-operator/6.get-started-with-operator.md - - 部署Nebula Operator: nebula-operator/2.deploy-nebula-operator.md - - 部署Nebula Graph集群: - - 使用Kubectl部署Nebula Graph集群: nebula-operator/3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md - - 使用Helm部署Nebula Graph集群: nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md - - 配置Nebula Graph集群: - - 自定义Nebula Graph集群的配置参数: nebula-operator/8.custom-cluster-configurations/8.1.custom-conf-parameter.md - - 回收PV: nebula-operator/8.custom-cluster-configurations/8.2.pv-reclaim.md - - 均衡扩容后的Storage数据: nebula-operator/8.custom-cluster-configurations/8.3.balance-data-when-scaling-storage.md - - 升级Nebula Graph集群: nebula-operator/9.upgrade-nebula-cluster.md - - 连接Nebula Graph数据库: nebula-operator/4.connect-to-nebula-graph-service.md + - 部署 Nebula Operator: nebula-operator/2.deploy-nebula-operator.md + - 部署 Nebula Graph集群: + - 使用 Kubectl 部署 Nebula Graph 集群: nebula-operator/3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md + - 使用 Helm 部署 Nebula Graph 集群: nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md + - 配置 Nebula Graph 集群: + - 自定义 Nebula Graph 集群的配置参数: nebula-operator/8.custom-cluster-configurations/8.1.custom-conf-parameter.md + - 回收 PV: nebula-operator/8.custom-cluster-configurations/8.2.pv-reclaim.md + - 均衡扩容后的 Storage 数据: nebula-operator/8.custom-cluster-configurations/8.3.balance-data-when-scaling-storage.md + - 升级 Nebula Graph 集群: nebula-operator/9.upgrade-nebula-cluster.md + - 连接 Nebula Graph 数据库: nebula-operator/4.connect-to-nebula-graph-service.md - 故障自愈: nebula-operator/5.operator-failover.md - 常见问题: nebula-operator/7.operator-faq.md