k8s 控制器:Daemonset 和 Job_deamonset-程序员宅基地

技术标签: kubernetes  容器  Linux 运维  学习笔记  k8s Job  云计算  

  • DaemonSet 概述

  • DaemonSet 控制器能够确保 k8s 集群所有的节点都运行一个相同的 pod 副本,当向 k8s 集群中增加 node 节点时,这个 node 节点也会自动创建一个 pod 副本,当 node 节点从集群移除,这些 pod 也会自动删除;删除 Daemonset 也会删除它们创建的 pod
  • DaemonSet 工作原理:如何管理 Pod?

  • daemonset 的控制器会监听 kuberntes 的 daemonset 对象、pod 对象、node 对象,这些被监听的对象之变动,就会触发 syncLoop 循环让 kubernetes 集群朝着 daemonset 对象描述的状态进行演进。

    此部分代码位于 pkg/kubelet/kubelet.go

  • Daemonset 典型的应用场景

    在集群的每个节点上运行存储,比如:glusterd 或 ceph。

    在每个节点上运行日志收集组件,比如:flunentd 、 logstash、filebeat 等。

    在每个节点上运行监控组件,比如:Prometheus、 Node Exporter 、collectd 等。
     
  • DaemonSet 与 Deployment 的区别

    Deployment 部署的副本 Pod 会分布在各个 Node 上,每个 Node 都可能运行好几个副本。


    DaemonSet 的不同之处在于:每个 Node 上最多只能运行一个副本。 

  • DaemonSet 资源清单文件编写技巧

  • #查看定义 Daemonset 资源需要的字段有哪些?

    # kubectl explain ds

    KIND: DaemonSet
    VERSION: apps/v1

    DESCRIPTION:
     DaemonSet represents the configuration of a daemon set.
    FIELDS:
     apiVersion <string> #当前资源使用的 api 版本,跟 VERSION: apps/v1 保持一致
     kind <string> #资源类型,跟 KIND: DaemonSet 保持一致
     metadata <Object> #元数据,定义 DaemonSet 名字的
     spec <Object> #定义容器的
     status <Object> #状态信息,不能改


     
  • #查看 DaemonSet 的 spec 字段如何定义?
     
  • # kubectl explain ds.spec

    KIND: DaemonSet
    VERSION: apps/v1
    RESOURCE: spec <Object>
    DESCRIPTION:
     The desired behavior of this daemon set. More info:
     https://git.k8s.io/community/contributors/devel/sig-architecture/apiconventions.md#spec-and-status
     DaemonSetSpec is the specification of a daemon set.
    FIELDS:
     minReadySeconds <integer> #当新的 pod 启动几秒种后,再 kill 掉旧的 pod。
     revisionHistoryLimit <integer> #历史版本
     selector <Object> -required- #用于匹配 pod 的标签选择器
     template <Object> -required- #定义 Pod 的模板,基于这个模板定义的所有 pod 是一样的 updateStrategy <Object> #daemonset 的升级策略

     
  • #查看 DaemonSet 的 spec.template 字段如何定义?

    #对于 template 而言,其内部定义的就是 pod,pod 模板是一个独立的对象

    # kubectl explain ds.spec.template

    KIND: DaemonSet
    VERSION: apps/v1
    RESOURCE: template <Object>
    FIELDS:
     metadata <Object>
     spec<Object>

  •  DaemonSet 使用案例-日志收集组件 fluentd

  • vim daemonset.yaml

    所有节点均创建了 fluentd 这个 pod

  • #资源清单详细说明

  • apiVersion: apps/v1 #DaemonSet 使用的 api 版本
    kind: DaemonSet # 资源类型
    metadata:
     name: fluentd-elasticsearch #资源的名字
     namespace: kube-system #资源所在的名称空间

     labels:
     k8s-app: fluentd-logging #资源具有的标签
    spec:
     selector: #标签选择器
     matchLabels:
     name: fluentd-elasticsearch
     template:
     metadata:
     labels: #基于这回模板定义的 pod 具有的标签
     name: fluentd-elasticsearch
     spec:
     tolerations: #定义容忍度
     - key: node-role.kubernetes.io/master
     effect: NoSchedule

     containers: #定义容器
     - name: fluentd-elasticsearch
     image: xuegod/fluentd:v2.5.1
     resources: #资源配额
     limits:
     memory: 200Mi
     requests:
     cpu: 100m
     memory: 200Mi
     volumeMounts:
     - name: varlog
     mountPath: /var/log #把本地/var/log 目录挂载到容器
     - name: varlibdockercontainers
     mountPath: /var/lib/docker/containers #把/var/lib/docker/containers/挂载到容器里
     readOnly: true #挂载目录是只读权限

     terminationGracePeriodSeconds: 30 #优雅的关闭服务
     volumes:
     - name: varlog
     hostPath:
     path: /var/log #基于本地目录创建一个卷
     - name: varlibdockercontainers
     hostPath:
     path: /var/lib/docker/containers #基于本地目录创建一个卷

     
  • 扩展:什么是 terminationGracePeriodSeconds?
    解释这个参数之前,先来回忆一下 K8S 滚动升级的步骤:
    1.K8S 首先启动新的 POD
    2.K8S 等待新的 POD 进入 Ready 状态
    3.K8S 创建 Endpoint,将新的 POD 纳入负载均衡
    4.K8S 移除与老 POD 相关的 Endpoint,并且将老 POD 状态设置为 Terminating,此时将不会有新的请求到达老 POD
    5.同时 K8S 会给老 POD 发送 SIGTERM 信号,并且等待 terminationGracePeriodSeconds 这么长的时间。(默认为 30 秒)
    6.超过 terminationGracePeriodSeconds 等待时间后, K8S 会强制结束老 POD
     
  • erminationGracePeriodSeconds 就是 K8S 给你程序留的最后的缓冲时间,来处理关闭之前的操作。
  • DaemonSet 实现 pod 的滚动更新

  • 查看 daemonset 的滚动更新策略
    # kubectl explain ds.spec.updateStrategy

     

    KIND:     DaemonSet
    VERSION:  apps/v1

    RESOURCE: updateStrategy <Object>

    DESCRIPTION:
         An update strategy to replace existing DaemonSet pods with new pods.

         DaemonSetUpdateStrategy is a struct used to control the update strategy for
         a DaemonSet.

    FIELDS:
       rollingUpdate    <Object>
         Rolling update config params. Present only if type = "RollingUpdate".

       type    <string>
         Type of daemon set update. Can be "RollingUpdate" or "OnDelete". Default is
         RollingUpdate.

    #查看 rollingUpdate 支持的更新策略
    ]# kubectl explain ds.spec.updateStrategy.rollingUpdate
    KIND: DaemonSet
    VERSION: apps/v1
    RESOURCE: rollingUpdate <Object>
    DESCRIPTION:
     Rolling update config params. Present only if type = "RollingUpdate".
     Spec to control the desired behavior of daemon set rolling update.
    FIELDS:
     maxUnavailable <string>#表示 rollingUpdate 更新策略只支持 maxUnavailabe,先删除在更新;因为我们不支持一个
    节点运行两个 pod,因此需要先删除一个,在更新一个。

    #更新镜像版本,可以按照如下方法:
    kubectl set image daemonsets fluentd-elasticsearch *=ikubernetes/filebeat:5.6.6-alpine -n kube-system

    kubectl set image (-f FILENAME | TYPE NAME) CONTAINER_NAME_1=CONTAINER_IMAGE_1 ... CONTAINER_NAME_N=CONTAINER_IMAGE_N [options]


     


  • Job 概念、原理解读

  • Job 控制器用于管理 Pod 对象运行一次性任务,比方说我们对数据库备份,可以直接在 k8s 上启动一个 mysqldump 备份程序,也可以启动一个 pod,这个 pod 专门用来备份用的,备份结束 pod 就可以终止了,不需要重启,而是将 Pod 对象置于"Completed"(完成)状态,若容器中的进程因错误而终止,则需要按照重启策略配置确定是否重启,对于 Job 这个类型的控制器来说,需不需要重建 pod 就看任务是否完成,完成就不需要重建,没有完成就需要重建 pod。

    Job 控制器的 Pod 对象的状态转换如下图所示:

     

    Job 用来创建 1 个或多个 Pod,并保证指定数量(.spec.completions)的 Pod 成功完成。当一个 Pod成功完成时(.status.phase=Succeeded),Job 会记录已完成的 Pod 的数量,但完成的数量达到指定值时,这个 Job 就完成了。

    可以通过以下 3 种方式来判断一个 Job 是否已完成:
     .status.completionTime 是否为空。Job 完成时该字段会被设置成 Job 完成的时间,否则为空

     .spec.completions 和.status.succeeded 是否相等,即对比期望完成数和已成功数,当二者相等时,表示 Job 已经完成

     .status.conditions[0].type:type 为 Complete 和 Failed 时,分别表示 Job 执行成功和失败


    Pod 中的容器可能因为各种各样的原因失败,比如退出码不为 0、超出内存限制被 kill 掉,容器失败分两种情况:
     .spec.template.spec.restartPolicy = "OnFailure":容器失败后会不断重启,直到成功(退出码为 0)
     .spec.template.spec.restartPolicy = "Never":容器不会重启,Pod 的状态转为 Failed当 Pod 执行失败时,Job 会不断创建一个新的 Pod 进行重试,直到失败次数达到.spec.backoffLimit 指定的数值,整个 Job 的执行失败。可以通过判断.status.failed和.spec.backoffLimit 是否相等,即已失败数是否已经达到上限,来判断 Job 是否已经执行失败。
    如下,当.spec.backoffLimit 设置为 3 时,.status.failed 已经达到 3,Job 失败,不会再尝试创建新的Pod


    Job 三种使用场景:
    1、非并行任务:只启一个 pod,pod 成功,job 正常结束
    2、并行任务同时指定成功个数:.spec.completions 为指定成功个数,可以指定也可以不指定.spec.parallelism(指定>1,会有多个任务并行运行)。当成功个数达到.spec.completions,任务结束。
    3、有工作队列的并行任务:.spec.completions 默认为 1,.spec.parallelism 为大于 0 的整数。此时并行启动多个 pod,只要有一个成功,任务结束,所有 pod 结束

    适用场景:
    Job 不是设计用来完成通信密集型的并行程序,如科学计算领域常见的场景。它支持并行地处理一组独立但相关的 work item,如发送邮件,渲染帧,转码文件和扫描 NoSql 数据库中的 key

    相关配置:
    .spec.completions:完成该 Job 需要执行成功的 Pod 数
    .spec.parallelism:能够同时运行的 Pod 数
    .spec.backoffLimit:允许执行失败的 Pod 数,默认值是 6,0 表示不允许 Pod 执行失败。如果Pod 是 restartPolicy 为 Nerver,则失败后会创建新的 Pod,如果是 OnFailed,则会重启 Pod,不管是哪种情况,只要 Pod 失败一次就计算一次,而不是等整个 Pod 失败后再计算一个。当失败的次数达到该限制时,整个 Job 随即结束,所有正在运行中的 Pod 都会被删除。
    .spec.activeDeadlineSeconds: Job 的超时时间,一旦一个 Job 运行的时间超出该限制,则 Job失败,所有运行中的 Pod 会被结束并删除。该配置指定的值必须是个正整数。不指定则不会超时

     

  • CronJob 概念、原理解读

  • CronJob 跟 Job 完成的工作是一样的,只不过 CronJob 添加了定时任务能力可以指定时间,实现周期性运行。

    Job,CronJob 和 Deployment,DaemonSet 显著区别在于不需要持续在后台运行Deployment 主要用于管理无状态的应用(kubernetes 集群有一些 pod,某一个 pod 出现故障,删除之后会重新启动一个 pod,那么 kubernetes 这个集群中 pod 数量就正常了,更多关注的是群体,这就是无状态应用)。

    使用场景:
    1、在给定时间点只运行一次。
    2、在给定时间点周期性地运行。

    CronJob 的典型用法如下:
    1、在给定的时间点调度 Job 运行。
    2、创建周期性运行的 Job,例如数据库备份、发送邮件

     
  • Job 控制器:资源清单编写技巧

  • #查看 Job 资源对象由哪几部分组成

    [~]# kubectl explain Job

    KIND: Job
    VERSION: batch/v1

    DESCRIPTION:
     Job represents the configuration of a single job.
    FIELDS:

     apiVersion <string> #当前 Job 的 api 版本
     kind <string> #指定当前的资源类型
     metadata <Object> #元数据,定义资源的名字和所在名称空间

     spec <Object>


    #查看 Job 下的 spec 字段


    [~]# kubectl explain Job.spec

    KIND: Job
    VERSION: batch/v1
    RESOURCE: spec <Object>

    DESCRIPTION:
     Specification of the desired behavior of a job. More info:
     https://git.k8s.io/community/contributors/devel/sig-architecture/apiconventions.md#spec-and-status
     JobSpec describes how the job execution will look like.
    FIELDS:

     activeDeadlineSeconds <integer> #通过指定 job 存活时间,来结束一个 job。当 job 运行时间达到 activeDeadlineSeconds 指定的时间后,job 会停止由它启动的所有任务(如:pod),并设置 job 的状态为 failed
     backoffLimit <integer> #job 建议指定 pod 的重启策略为 never,如:.spec.template.spec.restartPolicy = "Never",然后通过 job 的 backoffLimit 来指定失败重试次数,在达到 backoffLimit 指定的次数后,job 状态设置为 failed(默认为 6 次) completions <integer> #指定 job 启动的任务(如:pod)成功运行 completions 次,job 才算成功结束

     manualSelector <boolean>
     parallelism <integer> #指定 job 同时运行的任务(如:pod)个数,Parallelism 默认为 1,如果设置为 0,则 job 会暂定
     selector <Object>
     template <Object> -required-
     ttlSecondsAfterFinished <integer> #默认情况下,job 异常或者成功结束后,包括 job 启动的任务(pod),都不会被清理掉,因为你可以依据保存的 job 和 pod,查看状态、日志,以及调试等。这些用户可以手动删除,用户手动删除 job,job controller 会级联删除对应的 pod,除了手动删除,通过指定参数 ttlSecondsAfterFinished 也可以实现自动删除 job,以及级联的资源,如:pod。如果设置为 0,job 会被立即删除。如果不指定,job 则不会被删除


     
  • #查看 Job 下的 spec.template 字段

  • #template 为定义 Pod 的模板,Job 通过模板创建 Pod

    [~]# kubectl explain Job.spec.template
    KIND: Job
    VERSION: batch/v1
    RESOURCE: template <Object>
    DESCRIPTION:
     Describes the pod that will be created when executing a job. More info:
     https://kubernetes.io/docs/concepts/workloads/controllers/jobs-run-tocompletion/
    FIELDS:
     metadata <Object>
     spec <Object>


    #查看 Job 下的 spec.template.spec 字段

    [~]# kubectl explain Job.spec.template.spec
    KIND: Job
    VERSION: batch/v1
    RESOURCE: spec <Object>
    DESCRIPTION:
     Specification of the desired behavior of the pod. More info:
     https://git.k8s.io/community/contributors/devel/sig-architecture/apiconventions.md#spec-and-status
     PodSpec is a description of a pod.
    FIELDS:
     activeDeadlineSeconds <integer>
     affinity <Object>
     containers <[]Object> -required-
     dnsConfig <Object>
     dnsPolicy <string>
     enableServiceLinks <boolean>
     ephemeralContainers <[]Object>
     hostAliases<[]Object>
     hostIPC <boolean>
     hostNetwork <boolean>
     hostPID <boolean>
     hostname <string>
     imagePullSecrets <[]Object>
     initContainers <[]Object>
     nodeName <string>
     nodeSelector <map[string]string>
     overhead <map[string]string>
     preemptionPolicy <string>
     priority <integer>
     priorityClassName <string>
     readinessGates <[]Object>

     restartPolicy <string> #重启策略,对于 Job,只能设置为 Never 或者 OnFailure。对于其他 controller(比如 Deployment)可以设置为 Always 。
     runtimeClassName <string>
     schedulerName <string>
     securityContext <Object>
     serviceAccount <string>
     serviceAccountName <string>
     setHostnameAsFQDN <boolean>
     shareProcessNamespace <boolean>
     subdomain <string>
     terminationGracePeriodSeconds <integer>
     tolerations <[]Object>
     topologySpreadConstraints <[]Object>
     volumes <[]Object>

     
  • Job -创建一个一次性任务

  • vim job.yaml

    COMPLETIONS : 成功退出的 pod 数/并行运行的 pod 数
  • #资源清单文件详细解读

  • apiVersion: batch/v1
    kind: Job
    metadata:
     name: my-busybox-job
    spec:
    ttlSecondsAfterFinished: 20
     completions: 6 # job 结束需要成功运行的 Pod 个数,即状态为 Completed 的 pod 数
     parallelism: 3 #一次运行 3 个 pod 指的是一次性运行几个 pod,这个值不会超过 completions 的值
    backoffLimit: 6 #如果 job 失败,则重试几次,

     template:
     spec:
     restartPolicy: Never
     containers:
     - name: my-container-job
     image: busybox
     imagePullPolicy: IfNotPresent
     command: ['sh', '-c']
     args: ['echo "Welcome to xuegod";sleep 60; echo "Next to Meet you"']
  • CronJob 使用案例-创建周期性的定时任务

  • vim cronjob.yaml 

    观察大概一分钟,等待 CronJob创建:

    #现在可以看到由 hello 这个 cronjob 调度的正在运行的 job
    #可以看到 hello 这个 CronJob 成功地在 LAST SCHEDULE 中指定的时间点调度了一个作业。当前有 1 个活动作业,这意味着该作业已经完成或失败。

  •  
  • 使用 CronJob 定期备份 MySQL 数据

  • CronJob 所描述的,正是定时任务。
    1、在给定时间点只运行一次
    2、在给定时间点周期性地运行


    一个 CronJob 对象类似于 crontab (cron table)文件中的一行。它根据指定的预定计划周期性地运行一个 Job。在这里简单的说一下 cron,是指 unix 中 cron 表达式。比如:"*/1 * * * *",这个Cron 表达式里*/1 中 *表示从 0 开始,/表示"每",1 表示偏移量,所以它的意思是:从 0 开始,每 1个时间单位执行一次。Cron 表达式中五个部分分别代表:分钟,小时,日,月,星期。

    所以上述这句Cron 表达式的意思是:从当前开始,每分钟执行一次。那么我们可以利用这个机制来指定创建 mysql备份任务的对象:

     apiVersion: batch/v1beta1
     kind: CronJob
     metadata:
     name: mysqldump
     spec:
     schedule: "50 15 * * *"
     jobTemplate:
     spec:
     completions: 1
     template:
     spec:
     restartPolicy: Never
     volumes:
     - name: mysql-master-script
     hostPath:
     path: /root/app/mysql/shell
     - name: mysql-master-backup
     hostPath:
     path: /root/app/db/backup
     - name: local-time
     hostPath:
     path: /etc/localtime
     containers:
     - name: mysqldump-container
     image: nacos/nacos-mysql-master:latest
     volumeMounts:
     - name: mysql-master-script
     mountPath: /var/db/script
     - name: local-time
     mountPath: /etc/localtime
     - name: mysql-master-backup
     mountPath: /var/db/backup
     command:
     - "sh"
     - "/var/db/script/mysqldump.sh"

    在这个 Yaml 文件当中,最重要的关键词就是 jobTemplate。它是由 job 对象控制的 Controller,还有几点关键的属性这里解释说明一下:

    1、spec.concurrencyPolicy 这个属性主要是由于定时任务的特殊性,很可能某个 job 还没执行完,另外一个新的 job 就产生了。它的取值分别为:Allow(job 可以同时存在),Forbid(不会创建新的job,该周期会被跳过),Replace(新产生的 Job 替换旧的,没有执行完的 Job)

    2、如果某一次 Job 创建失败,这次创建会被标记为"Miss"。当在指定的事件窗口内,miss 数目达到 100 时,那么 CronJob 会停止再创建这个 Job,这个时间窗口可以有spec.startingDeadlineSeconds 来指定

    3、在 Job 对象中,负责并行控制的参数有两个:spec.parallelism 它定义的是一个 Job 在任意时间最多可以启动多少个 Pod 同时运行。spec.comletions 它定义的是 job 至少完成的 Pod 数目这里容器与宿主机时差相差 8 小时。注意在设置定时任务的时候一定算好时间


     
  • 备份数据库的脚本 , mysqldump.sh 脚本如下:

    #!/bin/bash
     #保存备份个数
     number=3
     #备份保存路径
     backup_dir=/var/db/backup
     #日期
     dd=`date +%Y%m%d`
     #备份工具
     tool=/usr/bin/mysqldump
     #用户名
     username=root
     #密码
     password=root
     #将要备份的数据库
     database_name=test
     #简单写法 mysqldump -u root -p123456 users > /root/mysqlbackup/users-
    $filename.sql
     $tool -u $username -p$password -hmysql-master -P3306 --databases 
    $database_name > $backup_dir/$database_name-$dd.sql
     
     #写创建备份日志
     echo "create $backup_dir/$database_name-$dd.sql" >> $backup_dir/log.txt
     #找出需要删除的备份
     delfile=`ls -l -crt $backup_dir/*.sql | awk '{print $9 }' | head -1`
     #判断现在的备份数量是否大于$number
     count=`ls -l -crt $backup_dir/*.sql | awk '{print $9 }' | wc -l`
     if [ $count -gt $number ]
     then
     rm $delfile //删除最早生成的备份只保留 number 数量的备份
     #写删除文件日志
     echo "delete $delfile" >> $backup_dir/log.txt
     fi
  •  

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/gaofei0428/article/details/121194614

智能推荐

while循环&CPU占用率高问题深入分析与解决方案_main函数使用while(1)循环cpu占用99-程序员宅基地

文章浏览阅读3.8k次,点赞9次,收藏28次。直接上一个工作中碰到的问题,另外一个系统开启多线程调用我这边的接口,然后我这边会开启多线程批量查询第三方接口并且返回给调用方。使用的是两三年前别人遗留下来的方法,放到线上后发现确实是可以正常取到结果,但是一旦调用,CPU占用就直接100%(部署环境是win server服务器)。因此查看了下相关的老代码并使用JProfiler查看发现是在某个while循环的时候有问题。具体项目代码就不贴了,类似于下面这段代码。​​​​​​while(flag) {//your code;}这里的flag._main函数使用while(1)循环cpu占用99

【无标题】jetbrains idea shift f6不生效_idea shift +f6快捷键不生效-程序员宅基地

文章浏览阅读347次。idea shift f6 快捷键无效_idea shift +f6快捷键不生效

node.js学习笔记之Node中的核心模块_node模块中有很多核心模块,以下不属于核心模块,使用时需下载的是-程序员宅基地

文章浏览阅读135次。Ecmacript 中没有DOM 和 BOM核心模块Node为JavaScript提供了很多服务器级别,这些API绝大多数都被包装到了一个具名和核心模块中了,例如文件操作的 fs 核心模块 ,http服务构建的http 模块 path 路径操作模块 os 操作系统信息模块// 用来获取机器信息的var os = require('os')// 用来操作路径的var path = require('path')// 获取当前机器的 CPU 信息console.log(os.cpus._node模块中有很多核心模块,以下不属于核心模块,使用时需下载的是

数学建模【SPSS 下载-安装、方差分析与回归分析的SPSS实现(软件概述、方差分析、回归分析)】_化工数学模型数据回归软件-程序员宅基地

文章浏览阅读10w+次,点赞435次,收藏3.4k次。SPSS 22 下载安装过程7.6 方差分析与回归分析的SPSS实现7.6.1 SPSS软件概述1 SPSS版本与安装2 SPSS界面3 SPSS特点4 SPSS数据7.6.2 SPSS与方差分析1 单因素方差分析2 双因素方差分析7.6.3 SPSS与回归分析SPSS回归分析过程牙膏价格问题的回归分析_化工数学模型数据回归软件

利用hutool实现邮件发送功能_hutool发送邮件-程序员宅基地

文章浏览阅读7.5k次。如何利用hutool工具包实现邮件发送功能呢?1、首先引入hutool依赖<dependency> <groupId>cn.hutool</groupId> <artifactId>hutool-all</artifactId> <version>5.7.19</version></dependency>2、编写邮件发送工具类package com.pc.c..._hutool发送邮件

docker安装elasticsearch,elasticsearch-head,kibana,ik分词器_docker安装kibana连接elasticsearch并且elasticsearch有密码-程序员宅基地

文章浏览阅读867次,点赞2次,收藏2次。docker安装elasticsearch,elasticsearch-head,kibana,ik分词器安装方式基本有两种,一种是pull的方式,一种是Dockerfile的方式,由于pull的方式pull下来后还需配置许多东西且不便于复用,个人比较喜欢使用Dockerfile的方式所有docker支持的镜像基本都在https://hub.docker.com/docker的官网上能找到合..._docker安装kibana连接elasticsearch并且elasticsearch有密码

随便推点

Python 攻克移动开发失败!_beeware-程序员宅基地

文章浏览阅读1.3w次,点赞57次,收藏92次。整理 | 郑丽媛出品 | CSDN(ID:CSDNnews)近年来,随着机器学习的兴起,有一门编程语言逐渐变得火热——Python。得益于其针对机器学习提供了大量开源框架和第三方模块,内置..._beeware

Swift4.0_Timer 的基本使用_swift timer 暂停-程序员宅基地

文章浏览阅读7.9k次。//// ViewController.swift// Day_10_Timer//// Created by dongqiangfei on 2018/10/15.// Copyright 2018年 飞飞. All rights reserved.//import UIKitclass ViewController: UIViewController { ..._swift timer 暂停

元素三大等待-程序员宅基地

文章浏览阅读986次,点赞2次,收藏2次。1.硬性等待让当前线程暂停执行,应用场景:代码执行速度太快了,但是UI元素没有立马加载出来,造成两者不同步,这时候就可以让代码等待一下,再去执行找元素的动作线程休眠,强制等待 Thread.sleep(long mills)package com.example.demo;import org.junit.jupiter.api.Test;import org.openqa.selenium.By;import org.openqa.selenium.firefox.Firefox.._元素三大等待

Java软件工程师职位分析_java岗位分析-程序员宅基地

文章浏览阅读3k次,点赞4次,收藏14次。Java软件工程师职位分析_java岗位分析

Java:Unreachable code的解决方法_java unreachable code-程序员宅基地

文章浏览阅读2k次。Java:Unreachable code的解决方法_java unreachable code

标签data-*自定义属性值和根据data属性值查找对应标签_如何根据data-*属性获取对应的标签对象-程序员宅基地

文章浏览阅读1w次。1、html中设置标签data-*的值 标题 11111 222222、点击获取当前标签的data-url的值$('dd').on('click', function() { var urlVal = $(this).data('ur_如何根据data-*属性获取对应的标签对象

推荐文章

热门文章

相关标签