内容简介:Prometheus通过命令行标志和配置文件进行配置。 虽然命令行标志配置了不可变的系统参数(例如存储位置,保留在磁盘和内存中的数据量等),但配置文件定义了与抓取作业及其实例相关的所有内容,以及哪些规则文件 载入。要查看所有可用的命令行参数,执行Prometheus可以在运行时重新加载其配置。 如果新配置格式不正确,则不会应用更改。 通过向Prometheus进程发送SIGHUP或向
Prometheus通过命令行标志和配置文件进行配置。 虽然命令行标志配置了不可变的系统参数(例如存储位置,保留在磁盘和内存中的数据量等),但配置文件定义了与抓取作业及其实例相关的所有内容,以及哪些规则文件 载入。
要查看所有可用的命令行参数,执行 ./prometheus -h
Prometheus可以在运行时重新加载其配置。 如果新配置格式不正确,则不会应用更改。 通过向Prometheus进程发送SIGHUP或向 /-/reload
端点发送HTTP POST请求(启用 --web.enable-lifecycle
标志时)来触发配置重新加载。 这也将重新加载任何已配置的规则文件。
一、配置文件
要指定要加载的配置文件,请使用 --config.file
标志。
该文件以YAML格式编写,由下面描述的方案定义。 括号表示参数是可选的。 对于非列表参数,该值设置为指定的默认值。
通用占位符定义如下:
-
<boolean>
:一个可以取值为true
或false
的布尔值 -
<duration>
:与正则表达式匹配的持续时间[0-9] +(ms | [smhdwy])
-
<labelname>
:与正则表达式匹配的字符串[a-zA-Z _] [a-zA-Z0-9 _] *
-
<labelvalue>
:一串unicode字符 -
<filename>
:当前工作目录中的有效路径 -
<host>
:由主机名或IP后跟可选端口号组成的有效字符串 -
<path>
:有效的URL路径 -
<scheme>
:一个可以取值http或https的字符串 -
<string>
:常规字符串 -
<secret>
:一个秘密的常规字符串,例如密码 -
<tmpl_string>
:在使用前进行模板扩展的字符串
其他占位符是单独指定的。
全局配置指定在所有其他配置上下文中有效的参数。 它们还可用作其他配置节的默认值。
global: # 默认情况下抓取目标的频率. [ scrape_interval: <duration> | default = 1m ] # 抓取超时时间. [ scrape_timeout: <duration> | default = 10s ] # 评估规则的频率. [ evaluation_interval: <duration> | default = 1m ] # 与外部系统通信时添加到任何时间序列或警报的标签 #(联合,远程存储,Alertma# nager). external_labels: [ <labelname>: <labelvalue> ... ] # 规则文件指定了一个globs列表. # 从所有匹配的文件中读取规则和警报. rule_files: [ - <filepath_glob> ... ] # 抓取配置列表. scrape_configs: [ - <scrape_config> ... ] # 警报指定与Alertmanager相关的设置. alerting: alert_relabel_configs: [ - <relabel_config> ... ] alertmanagers: [ - <alertmanager_config> ... ] # 与远程写入功能相关的设置. remote_write: [ - <remote_write> ... ] # 与远程读取功能相关的设置. remote_read: [ - <remote_read> ... ] 复制代码
1.1 <scrape_config>
<scrape_config>
部分指定一组描述如何刮除它们的目标和参数。 在一般情况下,一个scrape配置指定单个作业。 在高级配置中,这可能会改变。
目标可以通过 <static_configs>
参数静态配置,也可以使用其中一种支持的服务发现机制动态发现。
此外, <relabel_configs>
允许在抓取之前对任何目标及其标签进行高级修改。
其中 <job_name>
在所有scrape配置中必须是唯一的。
# 默认分配给已抓取指标的job名称。 job_name: <job_name> # 从job中抓取目标的频率. [ scrape_interval: <duration> | default = <global_config.scrape_interval> ] # 抓取此job时,每次抓取超时时间. [ scrape_timeout: <duration> | default = <global_config.scrape_timeout> ] # 从目标获取指标的HTTP资源路径. [ metrics_path: <path> | default = /metrics ] # honor_labels控制Prometheus如何处理已经存在于已抓取数据中的标签与Prometheus将附加服务器端的标签之间的冲突("job"和"instance"标签,手动配置的目标标签以及服务发现实现生成的标签)。 # # 如果honor_labels设置为"true",则通过保留已抓取数据的标签值并忽略冲突的服务器端标签来解决标签冲突。 # # 如果honor_labels设置为"false",则通过将已抓取数据中的冲突标签重命名为"exported_ <original-label>"(例如"exported_instance","exported_job")然后附加服务器端标签来解决标签冲突。 这对于联合等用例很有用,其中应保留目标中指定的所有标签。 # # 请注意,任何全局配置的"external_labels"都不受此设置的影响。 在与外部系统通信时,它们始终仅在时间序列尚未具有给定标签时应用,否则将被忽略。 # [ honor_labels: <boolean> | default = false ] # 配置用于请求的协议方案. [ scheme: <scheme> | default = http ] # 可选的HTTP URL参数. params: [ <string>: [<string>, ...] ] # 使用配置的用户名和密码在每个scrape请求上设置`Authorization`标头。 password和password_file是互斥的。 basic_auth: [ username: <string> ] [ password: <secret> ] [ password_file: <string> ] # 使用配置的承载令牌在每个scrape请求上设置`Authorization`标头。 它`bearer_token_file`和是互斥的。 [ bearer_token: <secret> ] # 使用配置的承载令牌在每个scrape请求上设置`Authorization`标头。 它`bearer_token`和是互斥的。 [ bearer_token_file: /path/to/bearer/token/file ] # 配置scrape请求的TLS设置. tls_config: [ <tls_config> ] # 可选的代理URL. [ proxy_url: <string> ] # Azure服务发现配置列表. azure_sd_configs: [ - <azure_sd_config> ... ] # Consul服务发现配置列表. consul_sd_configs: [ - <consul_sd_config> ... ] # DNS服务发现配置列表。 dns_sd_configs: [ - <dns_sd_config> ... ] # EC2服务发现配置列表。 ec2_sd_configs: [ - <ec2_sd_config> ... ] # OpenStack服务发现配置列表。 openstack_sd_configs: [ - <openstack_sd_config> ... ] # 文件服务发现配置列表。 file_sd_configs: [ - <file_sd_config> ... ] # GCE服务发现配置列表。 gce_sd_configs: [ - <gce_sd_config> ... ] # Kubernetes服务发现配置列表。 kubernetes_sd_configs: [ - <kubernetes_sd_config> ... ] # Marathon服务发现配置列表。 marathon_sd_configs: [ - <marathon_sd_config> ... ] # AirBnB的神经服务发现配置列表。 nerve_sd_configs: [ - <nerve_sd_config> ... ] # Zookeeper Serverset服务发现配置列表。 serverset_sd_configs: [ - <serverset_sd_config> ... ] # Triton服务发现配置列表。 triton_sd_configs: [ - <triton_sd_config> ... ] # 此job的标记静态配置目标列表。 static_configs: [ - <static_config> ... ] # 目标重新标记配置列表。 relabel_configs: [ - <relabel_config> ... ] # 度量标准重新配置列表。 metric_relabel_configs: [ - <relabel_config> ... ] # 对每个将被接受的样本数量的每次抓取限制。 # 如果在度量重新标记后存在超过此数量的样本,则整个抓取将被视为失败。 0表示没有限制。 [ sample_limit: <int> | default = 0 ] 复制代码
1.2 <tls_config>
tls_config
允许配置TLS连接。
# 用于验证API服务器证书的CA证书。 [ ca_file: <filename> ] # 用于服务器的客户端证书身份验证的证书和密钥文件。 [ cert_file: <filename> ] [ key_file: <filename> ] # ServerName扩展名,用于指示服务器的名称。 # https://tools.ietf.org/html/rfc4366#section-3.1 [ server_name: <string> ] # 禁用服务器证书的验证。 [ insecure_skip_verify: <boolean> ] 复制代码
1.3 <dns_sd_config>
基于DNS的服务发现配置允许指定一组DNS域名,这些域名会定期查询以发现目标列表。 要联系的DNS服务器从 /etc/resolv.conf
中读取。
此服务发现方法仅支持基本的DNS A,AAAA和SRV记录查询,但不支持RFC6763中指定的高级DNS-SD方法。
在重新标记阶段,元标签 __meta_dns_name
在每个目标上可用,并设置为生成已发现目标的记录名称。
# 要查询的DNS域名列表。 names: [ - <domain_name> ] # 要执行的DNS查询的类型。 [ type: <query_type> | default = 'SRV' ] # 查询类型不是SRV时使用的端口号。 [ port: <number>] # 提供名称后刷新的时间。 [ refresh_interval: <duration> | default = 30s ] 复制代码
其中 <domain_name>
是有效的DNS域名。 其中 <query_type>
是SRV,A或AAAA。
1.4 <kubernetes_sd_config>
Kubernetes SD配置允许从Kubernetes的RESTAPI中检索scrape目标,并始终与群集状态保持同步。
可以配置以下 role
类型之一来发现目标:
-
node
node
角色发现每个群集节点有一个目标,其地址默认为Kubelet的HTTP端口。 目标地址默认为NodeInternalIP
,NodeExternalIP
,NodeLegacyHostIP
和NodeHostName
的地址类型顺序中Kubernetes节点对象的第一个现有地址。
可用元标签:
-
__meta_kubernetes_node_name
:节点对象的名称。 -
__meta_kubernetes_node_label_ <labelname>
:节点对象中的每个标签。_ meta_kubernetes_node_annotation `:节点对象中的每个注释。
-
__meta_kubernetes_node_address_<address_type>
:每个节点地址类型的第一个地址(如果存在)。
此外,节点的 instance
标签将设置为从API服务器检索的节点名称。
-
service
service
角色为每个服务发现每个服务端口的目标。 这对于服务的黑盒监控通常很有用。 该地址将设置为服务的Kubernetes DNS名称和相应的服务端口。
可用元标签:
__meta_kubernetes_namespace __meta_kubernetes_service_annotation_<annotationname> __meta_kubernetes_service_cluster_ip __meta_kubernetes_service_external_name __meta_kubernetes_service_label_ <labelname> __meta_kubernetes_service_name __meta_kubernetes_service_port_name __meta_kubernetes_service_port_number __meta_kubernetes_service_port_protocol
-
pod
pod
角色发现所有pod
并将其容器暴露为目标。 对于容器的每个声明端口,将生成单个目标。 如果容器没有指定端口,则会创建每个容器的无端口目标,以通过重新标记手动添加端口。
可用元标签:
-
__meta_kubernetes_namespace
:pod
对象的命名空间。 -
__meta_kubernetes_pod_name
:pod
对象的名称。 -
__meta_kubernetes_pod_ip
:pod
对象的pod IP
。 -
__meta_kubernetes_pod_label_ <labelname>
:pod
对象的标签。 -
__meta_kubernetes_pod_annotation_ <annotationname>
:pod
对象的注释。 -
__meta_kubernetes_pod_container_name
:目标地址指向的容器的名称。 -
__meta_kubernetes_pod_container_port_name
:容器端口的名称。 -
__meta_kubernetes_pod_container_port_number
:容器端口号。 -
__meta_kubernetes_pod_container_port_protocol
:容器端口的协议。 -
__meta_kubernetes_pod_ready
:对于pod
的就绪状态,设置为true
或false
。 -
__meta_kubernetes_pod_phase
:在生命周期中设置为Pending
,Running
,Succeeded
,Failed
或Unknown
。 -
__meta_kubernetes_pod_node_name
:将pod
安排到的节点的名称。 -
__meta_kubernetes_pod_host_ip
:pod
对象的当前主机IP
。 -
__meta_kubernetes_pod_uid
:pod
对象的UID
。 -
__meta_kubernetes_pod_controller_kind
:对象类型的pod
控制器。 -
__meta_kubernetes_pod_controller_name
:pod
控制器的名称。
-
endpoints
endpoints
角色从列出的服务端点发现目标。 对于每个端点地址,每个端口发现一个目标。 如果端点由pod
支持,则pod
的所有其他容器端口(未绑定到端点端口)也会被发现为目标。
可用元标签:
-
__meta_kubernetes_namespace
:端点对象的命名空间。 -
__meta_kubernetes_endpoints_name
:端点对象的名称。对于直接从端点列表中发现的所有目标(不是从底层pod
中另外推断的那些),附加以下标签: -
__meta_kubernetes_endpoint_ready
:对端点的就绪状态设置为true
或false
。 -
__meta_kubernetes_endpoint_port_name
:端点端口的名称。 -
__meta_kubernetes_endpoint_port_protocol
:端点端口的协议。 -
__meta_kubernetes_endpoint_address_target_kind
:端点地址目标的种类。 -
__meta_kubernetes_endpoint_address_target_name
:端点地址目标的名称。 如果端点属于某个服务,则会附加角色:服务发现的所有标签。 对于由pod
支持的所有目标,将附加角色的所有标签:pod
发现。
-
ingress
ingress
角色发现每个入口的每个路径的目标。 这通常用于黑盒监控入口。 地址将设置为入口规范中指定的主机。
可用元标签:
__meta_kubernetes_namespace __meta_kubernetes_ingress_name __meta_kubernetes_ingress_label_ <labelname> __meta_kubernetes_ingress_annotation_<annotationname> __meta_kubernetes_ingress_scheme __meta_kubernetes_ingress_path
有关Kubernetes发现的配置选项,请参见下文:
# 访问Kubernetes API的信息。 # API服务器地址。 如果保留为空,则假定Prometheus在集群内部运行并自动发现API服务器,并在/var/run/secrets/kubernetes.io/serviceaccount/上使用pod的CA证书和不记名令牌文件。 [ api_server: <host> ] # 应该被发现的实体的Kubernetes角色。 role: <role> # 用于向API服务器进行身份验证的可选身份验证信息。请注意,`basic_auth`,`bearer_token`和`bearer_token_file`选项是互斥的.password和password_file是互斥的。 # 可选的HTTP基本认证信息。 basic_auth: [ username: <string> ] [ password: <secret> ] [ password_file: <string> ] # 可选的承载令牌认证信息。 [ bearer_token: <secret> ] # 可选的承载令牌文件认证信息。 [ bearer_token_file: <filename> ] # 可选的代理URL。 [ proxy_url: <string> ] # TLS配置。 tls_config: [ <tls_config> ] # 可选命名空间发现 如果省略,则使用所有名称空间。 namespaces: names: [ - <string> ] 复制代码
其中 <role>
必须是 endpoints
, service
, pod
, node
或 ingress
。
有关为Kubernetes配置Prometheus的详细 示例 ,请参阅此示例Prometheus配置文件。
您可能希望查看第三方Prometheus 操作 ,它可以在Kubernetes上自动执行Prometheus设置。
1.5 <static_config>
static_config允许指定目标列表和它们的公共标签集。 这是在scrape配置中指定静态目标的规范方法。
# 静态配置指定的目标。 targets: [ - '<host>' ] # 分配给从目标中已抓取的所有指标的标签。 labels: [ <labelname>: <labelvalue> ... ] 复制代码
1.6 <relabel_config>
重新标记是一种强大的工具,可以在抓取目标之前动态重写目标的标签集。 每个抓取配置可以配置多个重新标记步骤。 它们按照它们在配置文件中的出现顺序应用于每个目标的标签集。
最初,除了配置的每目标标签之外,目标的作业标签设置为相应的scrape配置的 job_name
值。 __address__
标签设置为目标的 <host>:<port>
地址。 重新标记后,如果在重新标记期间未设置实例标签,则实例标签默认设置为 __address__
的值。 __scheme__
和 __metrics_path__
标签分别设置为目标的方案和度量标准路径。 __param_ <name>
标签设置为名为 <name>
的第一个传递的URL参数的值。
在重新标记阶段,可以使用带有 __meta_
前缀的附加标签。 它们由提供目标的服务发现机制设置,并在不同机制之间变化。
在目标重新标记完成后,将从标签集中删除以 __
开头的标签。
如果重新标记步骤仅需临时存储标签值(作为后续重新标记步骤的输入),请使用 __tmp
标签名称前缀。 保证Prometheus本身不会使用此前缀。
# 源标签从现有标签中选择值。 它们的内容使用已配置的分隔符进行连接,并与已配置的正则表达式进行匹配,以进行替换,保留和删除操作。 [ source_labels: '[' <labelname> [, ...] ']' ] # 分隔符放置在连接的源标签值之间。 [ separator: <string> | default = ; ] # 在替换操作中将结果值写入的标签。 # 替换操作是强制性的。 正则表达式捕获组可用。 [ target_label: <labelname> ] # 与提取的值匹配的正则表达式。 [ regex: <regex> | default = (.*) ] # 采用源标签值的散列的模数。 [ modulus: <uint64> ] # 如果正则表达式匹配,则执行正则表达式替换的替换值。 正则表达式捕获组可用。 [ replacement: <string> | default = $1 ] # 基于正则表达式匹配执行的操作。 [ action: <relabel_action> | default = replace ] 复制代码
<regex>
是任何有效的RE2正则表达式。 它是 replace
, keep
, drop
, labelmap
, labeldrop
和 labelkeep
操作所必需的。 正则表达式固定在两端。 要取消锚定正则表达式,请使用。 * <regex>.*
。
<relabel_action>
确定要采取的重新签名行动:
-
replace
:将regex
与连接的source_labels
匹配。 然后,将target_label
设置为replacement
,将匹配组引用(${1}
,${2}
,...)替换为其值。 如果正则表达式不匹配,则不进行替换。 -
keep
:删除regex
与连接的source_labels
不匹配的目标。 -
drop
:删除regex
与连接的source_labels
匹配的目标。 -
hashmod
:将target_label
设置为连接的source_labels
的哈希模数。 -
labelmap
:将regex
与所有标签名称匹配。 然后将匹配标签的值复制到替换时给出的标签名称,替换为匹配组引用(${1}
,{2}
,...)替换为其值。 -
labeldrop
:将regex
与所有标签名称匹配。匹配的任何标签都将从标签集中删除。 -
labelkeep
:将regex
与所有标签名称匹配。任何不匹配的标签都将从标签集中删除。
必须小心使用 labeldrop
和 labelkeep
,以确保在删除标签后仍然对指标进行唯一标记。
1.7 <metric_relabel_configs>
度量重新标记应用于样本,作为摄取前的最后一步。 它具有与目标重新标记相同的配置格式和操作。 度量标准重新标记不适用于自动生成的时间序列,例如 up
。
一个用途是将黑名单时间序列列入黑名单,这些时间序列太昂贵而无法摄取。
1.8 <alert_relabel_configs>
警报重新标记在发送到Alertmanager之前应用于警报。 它具有与目标重新标记相同的配置格式和操作。 外部标签后应用警报重新标记。
这样做的一个用途是确保具有不同外部标签的HA对Prometheus服务器发送相同的警报。
1.9 <alertmanager_config>
alertmanager_config
部分指定Prometheus服务器向其发送警报的Alertmanager实例。 它还提供参数以配置如何与这些Alertmanagers进行通信。
Alertmanagers可以通过 static_configs
参数静态配置,也可以使用其中一种支持的服务发现机制动态发现。
此外, relabel_configs
允许从发现的实体中选择Alertmanagers,并对使用的API路径提供高级修改,该路径通过 __alerts_path__
标签公开。
# 推送警报时按目标Alertmanager超时。 [ timeout: <duration> | default = 10s ] # 将推送HTTP路径警报的前缀。 [ path_prefix: <path> | default = / ] # 配置用于请求的协议方案。 [ scheme: <scheme> | default = http ] # 使用配置的用户名和密码在每个请求上设置`Authorization`标头。 password和password_file是互斥的。 basic_auth: [ username: <string> ] [ password: <string> ] [ password_file: <string> ] # 使用配置的承载令牌在每个请求上设置“Authorization”标头。 它与`bearer_token_file`互斥。 [ bearer_token: <string> ] # 使用配置的承载令牌在每个请求上设置“Authorization”标头。 它与`bearer_token`互斥。 [ bearer_token_file: /path/to/bearer/token/file ] # 配置scrape请求的TLS设置。 tls_config: [ <tls_config> ] # 可选的代理URL。 [ proxy_url: <string> ] # Azure服务发现配置列表。 azure_sd_configs: [ - <azure_sd_config> ... ] # Consul服务发现配置列表。 consul_sd_configs: [ - <consul_sd_config> ... ] # DNS服务发现配置列表。 dns_sd_configs: [ - <dns_sd_config> ... ] # ECS服务发现配置列表。 ec2_sd_configs: [ - <ec2_sd_config> ... ] # 文件服务发现配置列表。 file_sd_configs: [ - <file_sd_config> ... ] # GCE服务发现配置列表。 gce_sd_configs: [ - <gce_sd_config> ... ] # K8S服务发现配置列表。 kubernetes_sd_configs: [ - <kubernetes_sd_config> ... ] # Marathon服务发现配置列表。 marathon_sd_configs: [ - <marathon_sd_config> ... ] # AirBnB's Nerve 服务发现配置列表。 nerve_sd_configs: [ - <nerve_sd_config> ... ] # Zookepper服务发现配置列表。 serverset_sd_configs: [ - <serverset_sd_config> ... ] # Triton服务发现配置列表。 triton_sd_configs: [ - <triton_sd_config> ... ] # 标记为静态配置的Alertmanagers列表。 static_configs: [ - <static_config> ... ] # Alertmanager重新配置列表。 relabel_configs: [ - <relabel_config> ... ] 复制代码
1.10 <remote_write>
write_relabel_configs
是在将样本发送到远程端点之前应用于样本的重新标记。 在外部标签之后应用写入重新标记。 这可用于限制发送的样本。
有一个如何使用此功能的小型 演示 。
# 要发送样本的端点的URL. url: <string> # 对远程写端点的请求超时。 [ remote_timeout: <duration> | default = 30s ] # 远程写入重新标记配置列表。 write_relabel_configs: [ - <relabel_config> ... ] # 使用配置的用户名和密码在每个远程写请求上设置`Authorization`标头.password和password_file是互斥的。 basic_auth: [ username: <string> ] [ password: <string> ] [ password_file: <string> ] # 使用配置的承载令牌在每个远程写请求上设置`Authorization`头。 它与`bearer_token_file`互斥。 [ bearer_token: <string> ] # 使用配置的承载令牌在每个远程写请求上设置`Authorization`头。 它与`bearer_token`互斥。 [ bearer_token_file: /path/to/bearer/token/file ] # 配置远程写入请求的TLS设置。 tls_config: [ <tls_config> ] # 可选的代理URL。 [ proxy_url: <string> ] # 配置用于写入远程存储的队列。 queue_config: # 在我们开始删除之前每个分片缓冲的样本数。 [ capacity: <int> | default = 10000 ] # 最大分片数,即并发数。 [ max_shards: <int> | default = 1000 ] # 最小分片数,即并发数。 [ min_shards: <int> | default = 1 ] # 每次发送的最大样本数。 [ max_samples_per_send: <int> | default = 100] # 样本在缓冲区中等待的最长时间。 [ batch_send_deadline: <duration> | default = 5s ] # 在可恢复错误上重试批处理的最大次数。 [ max_retries: <int> | default = 3 ] # 初始重试延迟。 每次重试都会加倍。 [ min_backoff: <duration> | default = 30ms ] # 最大重试延迟。 [ max_backoff: <duration> | default = 100ms ] 复制代码
有一个与此功能集成的列表。
1.11 <remote_read
# 要发送样本的端点的URL. url: <string> # 可选的匹配器列表,必须存在于选择器中以查询远程读取端点。 required_matchers: [ <labelname>: <labelvalue> ... ] # 对远程读取端点的请求超时。 [ remote_timeout: <duration> | default = 1m ] # 本地存储应该有完整的数据。 [ read_recent: <boolean> | default = false ] # 使用配置的用户名和密码在每个远程写请求上设置`Authorization`标头.password和password_file是互斥的。 basic_auth: [ username: <string> ] [ password: <string> ] [ password_file: <string> ] # 使用配置的承载令牌在每个远程写请求上设置`Authorization`头。 它与`bearer_toke_filen`互斥。 [ bearer_token: <string> ] # 使用配置的承载令牌在每个远程写请求上设置`Authorization`头。 它与`bearer_token`互斥。 [ bearer_token_file: /path/to/bearer/token/file ] # 配置远程写入请求的TLS设置。 tls_config: [ <tls_config> ] # 可选的代理URL。 [ proxy_url: <string> ] 复制代码
有一个与此功能集成的列表。
以上所述就是小编给大家介绍的《Prometheus学习系列(十三)之配置解析》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- mybatis源码配置文件解析之三:解析typeAliases标签
- Nginx 源码:配置文件解析
- 解析持续交付之全面配置管理
- Nginx源码阅读笔记-配置解析流程
- Vue项目中配置pug解析支持
- [深入浅出Sphinx]Sphinx配置文件解析
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Refactoring
Martin Fowler、Kent Beck、John Brant、William Opdyke、Don Roberts / Addison-Wesley Professional / 1999-7-8 / USD 64.99
Refactoring is about improving the design of existing code. It is the process of changing a software system in such a way that it does not alter the external behavior of the code, yet improves its int......一起来看看 《Refactoring》 这本书的介绍吧!