Kerberos(一) 安装
阅读原文时间:2023年07月15日阅读:1

1、服务器基本信息

操作系统:centos7

数量:2

主机名映射关系

IP

hostname

server

192.168.4.50

manager1

Kerberos server(kdc)

192.168.0.230

yjt

Kerberos client

2、安装ntp服务

NTP服务搭建

3、安装kerber

server端:

# yum -y install krb5-libs krb5-workstation krb5-server

client端

# yum -y install krb5-devel krb5-workstation

如果想源码编译安装,可下载:https://kerberos.org/dist/index.html

配置kerberos  server  主要修改三个配置文件,如下:

(1) /etc/krb5.conf

(2) /var/kerberos/krb5kdc/kdc.conf

(3) /var/kerberos/krb5kdc/kadm5.acl

修改server端上面的krb5.conf文件

# cat /etc/krb5.conf

# Configuration snippets may be placed in this directory as well
includedir /etc/krb5.conf.d/

[logging]
default = FILE:/var/log/krb5libs.log
kdc = FILE:/var/log/krb5kdc.log
admin_server = FILE:/var/log/kadmind.log

[libdefaults]
dns_lookup_realm = false
ticket_lifetime = 24h
renew_lifetime = 7d
forwardable = true
rdns = false
default_realm = EXAMPLE.COM
default_ccache_name = KEYRING:persistent:%{uid}

[realms]
 EXAMPLE.COM = {
 kdc = kerberos.example.com
 admin_server = kerberos.example.com
 }

[domain_realm]
.example.com = EXAMPLE.COM
example.com = EXAMPLE.COM

[kdc]

profile = /var/kerberos/krb5kdc/kdc.conf

#以上是默认的文件信息。

配置解释:

[logging]  这个组里面配置的是一些与日志存放路径相关的信息。

  default: 用于配置krb5libs日志存放路径

  kdc: 用于配置krb5kdc日志存放路径

  admin_server: 用于配置kadmin服务日志存放路径

[libdefaults] 在使用Kerberos时使用的默认值。

  dns_lookup_realm : 与dns参数有关,猜测用于域名解析,默认是false,当设置为true时,dns参数才起作用,有关dns参数获取其他参数可以查看官方文档。

  ticket_lifetime: 获取到的票据存活时间,也就是该票据可以用多久,默认是1天

  renew_lifetime:票据可更新的时间,也就是说该票据可以延迟到期的天数。默认是7天

  forwardable:票据是否可以被kdc转发, 默认是true。

  rdns :在进行dns解析的时候,正反向都可以,默认是true,如果dns_canonicalize_hostname参数被设置为false,那么rdns这个参数将无效。

default_realm:默认的领域,当客户端在连接或者获取主体的时候,当没有输入领域的时候,该值为默认值(列如:使用kinit admin/admin 获取主体的凭证时,没有输入领域,而传到kdc服务器的时候,会变成 admin/admin@EXAMPLE.COM ),这个值需要在[realms]中定义,如果有多个领域,都需要在realms中定义。默认以大写书写。

  default_ccache_name:默认缓存的凭据名称,不推荐使用,当在客户端配置该参数的时候,会提示缓存错误信息。

[realms]   该组主要是配置领域相关的信息,默认只有一个,可以配置多个,如果配置多个(比如:HADOOP.COM, HBASE.COM),但是default_realm值定义为HADOOP.COM,那么客户端在获取与HBASE.COM相关的凭据时,需要指定具体的域名(比如客户端初始化凭据: kinit admin/admin@HBASE.COM).

  EXAMPLE.COM: 简单说就是域名,对应用kerberos来说就是领域,相当于编程里面的namespace。

  kdc : kdc服务器地址。格式  机器:端口, 默认端口是88

  admin_server: admin服务地址 格式 机器:端口, 默认端口749

  default_domain: 指定默认的域名

[domain_realm]   指定DNS域名和Kerberos域名之间映射关系。指定服务器的FQDN,对应的domain_realm值决定了主机所属的域。

[kdc]:

  kdc的配置信息。即指定kdc.conf的位置。
  profile :kdc的配置文件路径,默认值下若无文件则需要创建。

#cat /var/kerberos/krb5kdc/kdc.conf
[kdcdefaults]
kdc_ports =
kdc_tcp_ports =

[realms]
EXAMPLE.COM = {
#master_key_type = aes256-cts
acl_file = /var/kerberos/krb5kdc/kadm5.acl
dict_file = /usr/share/dict/words
admin_keytab = /var/kerberos/krb5kdc/kadm5.keytab
supported_enctypes = aes256-cts:normal aes128-cts:normal des3-hmac-sha1:normal arcfour-hmac:normal camellia256-cts:normal camellia128-cts:normal des-hmac-sha1:normal des-cbc-md5:normal des-cbc-crc:normal
}

#以上是默认的配置信息
参数解析:

[kdcdefaults_] 改组主要是用于配置全局信息。也就是kdc的默认值。
  kdc_ports: kdc默认端口 
  kdc_tcp_ports: kdc默认的tcp端口
[realms] 该配置项主要是用于配置每个域的具体信息。_

  • EXAMPLE.COM: 是设定的 realms。名字随意。Kerberos 可以支持多个 realms,会增加复杂度。大小写敏感,一般为了识别使用全部大写。这个 realms 跟机器的 host 没有大关系。
  • master_key_type:和 supported_enctypes 默认使用 aes256-cts。由于,JAVA 使用 aes256-cts 验证方式需要安装额外的 jar 包(后面再做说明)。推荐不使用,并且删除 aes256-cts。
  • acl_file:标注了 admin 的用户权限,需要用户自己创建。文件格式是:Kerberos_principal permissions [target_principal] [restrictions]
  • supported_enctypes:支持的校验方式。
  • admin_keytab:KDC 进行校验的 keytab。

关于AES-256加密

对于使用 centos5. 6及以上的系统,默认使用 AES-256 来加密的。这就需要集群中的所有节点上安装 Java Cryptography Extension (JCE) Unlimited Strength Jurisdiction Policy File。

下载的文件是一个 zip 包,解开后,将里面的两个文件放到下面的目录中:$JAVA_HOME/jre/lib/security (如果已经存在,可以考虑先删除)

#cat /var/kerberos/krb5kdc/kadm5.acl
*/admin@EXAMPLE.COM *

解析:
该配置文件主要是用于管理员登陆的acl
配置格式:

Kerberos_principal permissions [target_principal] [restrictions]

第一列: */admin@HADOOP.COM 对应 Kerberos_principal 表示主体(principal)名称
第二列:* 对应 permissions 表示权限
上述的配置表示以/admin@WXAMPLE.COM结尾的用户拥有*(all 也就是所有)权限,具体配置可根据项目来是否缩小权限。

4、Kerberos操作

初始化数据库 -r 指定域名(也就是在krb5.conf文件[realms]组里面定义的域名) -s选项指定将数据库的主节点密钥存储在文件中,从而可以在每次启动KDC时自动重新生成主节点密钥

#kdb5_util -s create HADOOP.COM

出现 Loading random data 的时候另开个终端执行点消耗CPU的命令如 cat /dev/sda > /dev/urandom 可以加快随机数采集。

该命令会在 /var/kerberos/krb5kdc/ 目录下创建 principal 数据库。

如果遇到数据库已经存在的提示,可以把 /var/kerberos/krb5kdc/ 目录下的 principal 的相关文件都删除掉。默认的数据库名字都是 principal。可以使用 -d 指定数据库名字。

#ll /var/kerberos/krb5kdc/ 数据库创建完成以后,会在该目录下生成以principal开头的四个文件
total
-rw------- root root Oct : kadm5.acl #kerberos管理员的访问权限控制文件
-rw------- root root Oct : kdc.conf              #kdc 主配置文件                            
-rw------- root root Oct : principal # kerberos数据库文件
-rw------- root root Oct : principal.kadm5 #Kerberos数据库管理文件
-rw------- root root Oct : principal.kadm5.lock #kerberos 数据库管理的锁文件
-rw------- root root Oct : principal.ok # kerberos数据库文件

启动kdc服务

# systemctl start krb5kdc
# systemctl enable krb5kdc #开启自启

启动kadmin服务

# systemctl start kadmin
# systemctl enable kadmin #开启自启

关于 kerberos 的管理,可以使用 kadmin.local 或 kadmin,至于使用哪个,取决于账户和访问权限:

如果有访问 kdc 服务器的 root 权限,但是没有 kerberos admin 账户,使用 kadmin.local
如果没有访问 kdc 服务器的 root 权限,但是用 kerberos admin 账户,使用 kadmin
说白了一点,在server上使用kadmin.local,在client使用kadmin
在 server 上创建远程管理的管理员:
第一种方法:

kadmin.local #进入控制台

addprinc admin/admin #创建管理员
手动输入两次密码,这里密码为123456
第二种方法:

kadmin.local -q "addprinc addmin/admin"

第三种方法:
不用手动输入密码

echo -e "123456\n123456" | kadmin.local -q "addprinc admin/admin"

系统会提示输入密码,密码不能为空,且需妥善保存

[hduser@yjt ~]$ kinit admin/admin #获取管理员凭证(TGT)
Password for admin/admin@HADOOP.COM: #输入密码,也就是123456
[hduser@yjt ~]$ kadmin
Couldn't open log file /var/log/kadmind.log: 权限不够
Authenticating as principal admin/admin@HADOOP.COM with password.
Password for admin/admin@HADOOP.COM: #输入密码 123456
kadmin: #控制台

5、kerberos常用命令

服务端操作:

在控制台输入 ? 可以查看相关命令

kadmin: ?
Available kadmin requests:

add_principal, addprinc, ank
Add principal
delete_principal, delprinc
Delete principal
modify_principal, modprinc
Modify principal
rename_principal, renprinc
Rename principal
change_password, cpw Change password
get_principal, getprinc Get principal
list_principals, listprincs, get_principals, getprincs
List principals
add_policy, addpol Add policy
modify_policy, modpol Modify policy
delete_policy, delpol Delete policy
get_policy, getpol Get policy
list_policies, listpols, get_policies, getpols
List policies
get_privs, getprivs Get privileges
ktadd, xst Add entry(s) to a keytab
ktremove, ktrem Remove entry(s) from a keytab
lock Lock database exclusively (use with extreme caution!)
unlock Release exclusive database lock
purgekeys Purge previously retained old keys from a principal
get_strings, getstrs Show string attributes on a principal
set_string, setstr Set a string attribute on a principal
del_string, delstr Delete a string attribute on a principal
list_requests, lr, ? List available requests.
quit, exit, q Exit program.

查看具体的命令用法,直接输入命令按回车,如下:

kadmin: addprinc
usage: add_principal [options] principal
options are:
[-randkey|-nokey] [-x db_princ_args]* [-expire expdate] [-pwexpire pwexpdate] [-maxlife maxtixlife]
[-kvno kvno] [-policy policy] [-clearpolicy]
[-pw password] [-maxrenewlife maxrenewlife]
[-e keysaltlist]
[{+|-}attribute]
attributes are:
allow_postdated allow_forwardable allow_tgs_req allow_renewable
allow_proxiable allow_dup_skey allow_tix requires_preauth
requires_hwauth needchange allow_svr password_changing_service
ok_as_delegate ok_to_auth_as_delegate no_auth_data_required
lockdown_keys

where,
[-x db_princ_args]* - any number of database specific arguments.
Look at each database documentation for supported arguments

add_principal, addprinc, ank 这几个命令都可以创建主体(相当于用户)
服务器操作测试:
# kadmin.local 进入到控制台
控制台是以kadmin开头的,如下:
kadmin: addprinc yjt/yjt #创建主体(用户)yjt/yjt 需要输入密码
kadmin: addprinc -pw 123456 yjt/yjt # 创建yjt/yjt主体,密码使用-pw指定
kadmin: addprinc -randkey yjt/yjt #生成随机密码

delete_principal, delprinc # 删除主体,删除的时候会询问是否删除

kadmin: delprinc yjt/yjt
Are you sure you want to delete the principal "yjt/yjt@HADOOP.COM"? (yes/no): yes
Principal "yjt/yjt@HADOOP.COM" deleted.
Make sure that you have removed this principal from all ACLs before reusing.

modify_principal, modprinc #修改用户
比如修改延迟到期时间:

kadmin: modprinc -maxrenewlife 8days yjt/yjt
Principal "yjt/yjt@HADOOP.COM" modified.

list_principals, listprincs, get_principals, getprincs #列出当前凭证

kadmin: listprincs
HTTP/yjt@HADOOP.COM
K/M@HADOOP.COM
admin/admin@HADOOP.COM
dn/yjt@HADOOP.COM
hbase/yjt@HADOOP.COM
hdfs/yjt@HADOOP.COM
hive/yjt@HADOOP.COM
host/yjt@HADOOP.COM
jn/yjt@HADOOP.COM
kadmin/admin@HADOOP.COM
kadmin/changepw@HADOOP.COM
kadmin/manager1@HADOOP.COM
kiprop/manager1@HADOOP.COM
krbtgt/HADOOP.COM@HADOOP.COM
nm/yjt@HADOOP.COM
nn/yjt@HADOOP.COM
rm/yjt@HADOOP.COM
test@HADOOP.COM
yarn/yjt@HADOOP.COM
yjt/yjt@HADOOP.COM
zkcli/yjt@HADOOP.COM
zkcli@HADOOP.COM
zkserver/yjt@HADOOP.COM
zookeeper/yjt@HADOOP.COM

ktadd, xst
kadmin: xst -norandky -k hadoop.keytab jn/yjt nn/yjt # -k指定密钥文件的位置,如果是相对路径,文件生成在当前路径下,可以指定多个认证主体

如何合并多个密钥文件的信息到一个文件?例如,在当前路径下,存在nn.keytab, dn.keytab ,现在我想把这两个文件里面的密钥合并到hadoop.keytab,操作如下:
在命令行输入ktutil
#ktutil #进入到控制台
read_kt, rkt #这两个命令可以从keytab里面读取出密钥信息
ktutil:  rkt nn.keytab
ktutil: rkt dn.keytab
write_kt, wkt # 这两个命令可以把当前的keylist写入到一个keytab文件,这个keylist信息就是上面使用rkt从keytab读取的信息
ktutil: wkt hadoop.keytab

get_principal, getprinc # 获取凭据信息的两个命令

kadmin.local: getprinc yjt/yjt
Principal: yjt/yjt@HADOOP.COM
Expiration date: [never]
Last password change: Thu Oct 24 18:01:22 CST 2019
Password expiration date: [never]
Maximum ticket life: 1 day 00:00:00
Maximum renewable life: 8 days 00:00:00  注意这里:刚才被我们该过
Last modified: Thu Oct 24 18:07:28 CST 2019 (admin/admin@HADOOP.COM)
Last successful authentication: [never]
Last failed authentication: [never]
Failed password attempts: 0
Number of keys: 8
Key: vno 1, aes256-cts-hmac-sha1-96
Key: vno 1, aes128-cts-hmac-sha1-96
Key: vno 1, des3-cbc-sha1
Key: vno 1, arcfour-hmac
Key: vno 1, camellia256-cts-cmac
Key: vno 1, camellia128-cts-cmac
Key: vno 1, des-hmac-sha1
Key: vno 1, des-cbc-md5
MKey: vno 1
Attributes:
Policy: [none]

[root@manager1 yjt-test ::]#kdb5_util dump kerberos_data
[root@manager1 yjt-test ::]#ll
total -rw------- root root Oct : kerberos_data
-rw------- root root Oct : kerberos_data.dump_ok

#kpasswd yjt/yjt
Password for yjt/yjt@HADOOP.COM:
Enter new password:
Enter it again:
Password changed.

客户端操作:

[root@manager1 yjt-test ::]#kinit yjt/yjt #基于密码,需要输入密码

[root@manager1 yjt-test 18:28:06]#kinit -kt app.keytab yjt/yjt #基于密钥的方式验证

[root@manager1 yjt-test ::]#klist
Ticket cache: FILE:/tmp/krb5cc_0
Default principal: nm/yjt@HADOOP.COM

Valid starting Expires Service principal
// :: // :: krbtgt/HADOOP.COM@HADOOP.COM

[root@manager1 yjt-test ::]#kdestroy

[root@manager1 kerveros_security ::]#klist -ket hadoop.keytab
Keytab name: FILE:hadoop.keytab
KVNO Timestamp Principal


// :: hdfs/yjt@HADOOP.COM (aes256-cts-hmac-sha1-)  
// :: hdfs/yjt@HADOOP.COM (aes128-cts-hmac-sha1-)  
// :: hdfs/yjt@HADOOP.COM (des3-cbc-sha1)  
// :: hdfs/yjt@HADOOP.COM (arcfour-hmac)  
// :: hdfs/yjt@HADOOP.COM (camellia256-cts-cmac)  
// :: hdfs/yjt@HADOOP.COM (camellia128-cts-cmac)  
// :: hdfs/yjt@HADOOP.COM (des-hmac-sha1)  
// :: hdfs/yjt@HADOOP.COM (des-cbc-md5)  
// :: yarn/yjt@HADOOP.COM (aes256-cts-hmac-sha1-)  
// :: yarn/yjt@HADOOP.COM (aes128-cts-hmac-sha1-)  
// :: yarn/yjt@HADOOP.COM (des3-cbc-sha1)  
// :: yarn/yjt@HADOOP.COM (arcfour-hmac)  
// :: yarn/yjt@HADOOP.COM (camellia256-cts-cmac)  
// :: yarn/yjt@HADOOP.COM (camellia128-cts-cmac)  
// :: yarn/yjt@HADOOP.COM (des-hmac-sha1)  
// :: yarn/yjt@HADOOP.COM (des-cbc-md5)  
// :: HTTP/yjt@HADOOP.COM (aes256-cts-hmac-sha1-)  
// :: HTTP/yjt@HADOOP.COM (aes128-cts-hmac-sha1-)  
// :: HTTP/yjt@HADOOP.COM (des3-cbc-sha1)  
// :: HTTP/yjt@HADOOP.COM (arcfour-hmac)  
// :: HTTP/yjt@HADOOP.COM (camellia256-cts-cmac)  
// :: HTTP/yjt@HADOOP.COM (camellia128-cts-cmac)  
// :: HTTP/yjt@HADOOP.COM (des-hmac-sha1)  
// :: HTTP/yjt@HADOOP.COM (des-cbc-md5)  
// :: host/yjt@HADOOP.COM (aes256-cts-hmac-sha1-)  
// :: host/yjt@HADOOP.COM (aes128-cts-hmac-sha1-)  
// :: host/yjt@HADOOP.COM (des3-cbc-sha1)  
// :: host/yjt@HADOOP.COM (arcfour-hmac)  
// :: host/yjt@HADOOP.COM (camellia256-cts-cmac)  
// :: host/yjt@HADOOP.COM (camellia128-cts-cmac)  
// :: host/yjt@HADOOP.COM (des-hmac-sha1)  
// :: host/yjt@HADOOP.COM (des-cbc-md5)

参考:

官网

oracle kerberos 详解

手机扫一扫

移动阅读更方便

阿里云服务器
腾讯云服务器
七牛云服务器

你可能感兴趣的文章