操作系统:centos7
数量:2
主机名映射关系
IP
hostname
server
192.168.4.50
manager1
Kerberos server(kdc)
192.168.0.230
yjt
Kerberos client
server端:
# yum -y install krb5-libs krb5-workstation krb5-server
client端
# yum -y install krb5-devel krb5-workstation
如果想源码编译安装,可下载:https://kerberos.org/dist/index.html
配置kerberos server 主要修改三个配置文件,如下:
(1) /etc/krb5.conf
(2) /var/kerberos/krb5kdc/kdc.conf
(3) /var/kerberos/krb5kdc/kadm5.acl
修改server端上面的krb5.conf文件
# cat /etc/krb5.conf
# Configuration snippets may be placed in this directory as well
includedir /etc/krb5.conf.d/
[logging]
default = FILE:/var/log/krb5libs.log
kdc = FILE:/var/log/krb5kdc.log
admin_server = FILE:/var/log/kadmind.log
[libdefaults]
dns_lookup_realm = false
ticket_lifetime = 24h
renew_lifetime = 7d
forwardable = true
rdns = false
default_realm = EXAMPLE.COM
default_ccache_name = KEYRING:persistent:%{uid}
[realms]
EXAMPLE.COM = {
kdc = kerberos.example.com
admin_server = kerberos.example.com
}
[domain_realm]
.example.com = EXAMPLE.COM
example.com = EXAMPLE.COM
[kdc]
profile = /var/kerberos/krb5kdc/kdc.conf
#以上是默认的文件信息。
配置解释:
[logging] 这个组里面配置的是一些与日志存放路径相关的信息。
default: 用于配置krb5libs日志存放路径
kdc: 用于配置krb5kdc日志存放路径
admin_server: 用于配置kadmin服务日志存放路径
[libdefaults] 在使用Kerberos时使用的默认值。
dns_lookup_realm : 与dns参数有关,猜测用于域名解析,默认是false,当设置为true时,dns参数才起作用,有关dns参数获取其他参数可以查看官方文档。
ticket_lifetime: 获取到的票据存活时间,也就是该票据可以用多久,默认是1天
renew_lifetime:票据可更新的时间,也就是说该票据可以延迟到期的天数。默认是7天
forwardable:票据是否可以被kdc转发, 默认是true。
rdns :在进行dns解析的时候,正反向都可以,默认是true,如果dns_canonicalize_hostname参数被设置为false,那么rdns这个参数将无效。
default_realm:默认的领域,当客户端在连接或者获取主体的时候,当没有输入领域的时候,该值为默认值(列如:使用kinit admin/admin 获取主体的凭证时,没有输入领域,而传到kdc服务器的时候,会变成 admin/admin@EXAMPLE.COM ),这个值需要在[realms]中定义,如果有多个领域,都需要在realms中定义。默认以大写书写。
default_ccache_name:默认缓存的凭据名称,不推荐使用,当在客户端配置该参数的时候,会提示缓存错误信息。
[realms] 该组主要是配置领域相关的信息,默认只有一个,可以配置多个,如果配置多个(比如:HADOOP.COM, HBASE.COM),但是default_realm值定义为HADOOP.COM,那么客户端在获取与HBASE.COM相关的凭据时,需要指定具体的域名(比如客户端初始化凭据: kinit admin/admin@HBASE.COM).
EXAMPLE.COM: 简单说就是域名,对应用kerberos来说就是领域,相当于编程里面的namespace。
kdc : kdc服务器地址。格式 机器:端口, 默认端口是88
admin_server: admin服务地址 格式 机器:端口, 默认端口749
default_domain: 指定默认的域名
[domain_realm] 指定DNS域名和Kerberos域名之间映射关系。指定服务器的FQDN,对应的domain_realm值决定了主机所属的域。
[kdc]:
kdc的配置信息。即指定kdc.conf的位置。
profile :kdc的配置文件路径,默认值下若无文件则需要创建。
#cat /var/kerberos/krb5kdc/kdc.conf
[kdcdefaults]
kdc_ports =
kdc_tcp_ports =
[realms]
EXAMPLE.COM = {
#master_key_type = aes256-cts
acl_file = /var/kerberos/krb5kdc/kadm5.acl
dict_file = /usr/share/dict/words
admin_keytab = /var/kerberos/krb5kdc/kadm5.keytab
supported_enctypes = aes256-cts:normal aes128-cts:normal des3-hmac-sha1:normal arcfour-hmac:normal camellia256-cts:normal camellia128-cts:normal des-hmac-sha1:normal des-cbc-md5:normal des-cbc-crc:normal
}
#以上是默认的配置信息
参数解析:
[kdcdefaults_] 改组主要是用于配置全局信息。也就是kdc的默认值。
kdc_ports: kdc默认端口
kdc_tcp_ports: kdc默认的tcp端口
[realms] 该配置项主要是用于配置每个域的具体信息。_
关于AES-256加密:
对于使用 centos5. 6及以上的系统,默认使用 AES-256 来加密的。这就需要集群中的所有节点上安装 Java Cryptography Extension (JCE) Unlimited Strength Jurisdiction Policy File。
下载的文件是一个 zip 包,解开后,将里面的两个文件放到下面的目录中:$JAVA_HOME/jre/lib/security (如果已经存在,可以考虑先删除)
#cat /var/kerberos/krb5kdc/kadm5.acl
*/admin@EXAMPLE.COM *
解析:
该配置文件主要是用于管理员登陆的acl
配置格式:
Kerberos_principal permissions [target_principal] [restrictions]
第一列: */admin@HADOOP.COM 对应 Kerberos_principal 表示主体(principal)名称
第二列:* 对应 permissions 表示权限
上述的配置表示以/admin@WXAMPLE.COM结尾的用户拥有*(all 也就是所有)权限,具体配置可根据项目来是否缩小权限。
初始化数据库 -r 指定域名(也就是在krb5.conf文件[realms]组里面定义的域名) -s选项指定将数据库的主节点密钥存储在文件中,从而可以在每次启动KDC时自动重新生成主节点密钥
#kdb5_util -s create HADOOP.COM
出现 Loading random data 的时候另开个终端执行点消耗CPU的命令如 cat /dev/sda > /dev/urandom 可以加快随机数采集。
该命令会在 /var/kerberos/krb5kdc/ 目录下创建 principal 数据库。
如果遇到数据库已经存在的提示,可以把 /var/kerberos/krb5kdc/ 目录下的 principal 的相关文件都删除掉。默认的数据库名字都是 principal。可以使用 -d 指定数据库名字。
#ll /var/kerberos/krb5kdc/ 数据库创建完成以后,会在该目录下生成以principal开头的四个文件
total
-rw------- root root Oct : kadm5.acl #kerberos管理员的访问权限控制文件
-rw------- root root Oct : kdc.conf #kdc 主配置文件
-rw------- root root Oct : principal # kerberos数据库文件
-rw------- root root Oct : principal.kadm5 #Kerberos数据库管理文件
-rw------- root root Oct : principal.kadm5.lock #kerberos 数据库管理的锁文件
-rw------- root root Oct : principal.ok # kerberos数据库文件
启动kdc服务
# systemctl start krb5kdc
# systemctl enable krb5kdc #开启自启
启动kadmin服务
# systemctl start kadmin
# systemctl enable kadmin #开启自启
关于 kerberos 的管理,可以使用 kadmin.local 或 kadmin,至于使用哪个,取决于账户和访问权限:
如果有访问 kdc 服务器的 root 权限,但是没有 kerberos admin 账户,使用 kadmin.local
如果没有访问 kdc 服务器的 root 权限,但是用 kerberos admin 账户,使用 kadmin
说白了一点,在server上使用kadmin.local,在client使用kadmin
在 server 上创建远程管理的管理员:
第一种方法:
addprinc admin/admin #创建管理员
手动输入两次密码,这里密码为123456
第二种方法:
第三种方法:
不用手动输入密码
系统会提示输入密码,密码不能为空,且需妥善保存
[hduser@yjt ~]$ kinit admin/admin #获取管理员凭证(TGT)
Password for admin/admin@HADOOP.COM: #输入密码,也就是123456
[hduser@yjt ~]$ kadmin
Couldn't open log file /var/log/kadmind.log: 权限不够
Authenticating as principal admin/admin@HADOOP.COM with password.
Password for admin/admin@HADOOP.COM: #输入密码 123456
kadmin: #控制台
服务端操作:
在控制台输入 ? 可以查看相关命令
kadmin: ?
Available kadmin requests:
add_principal, addprinc, ank
Add principal
delete_principal, delprinc
Delete principal
modify_principal, modprinc
Modify principal
rename_principal, renprinc
Rename principal
change_password, cpw Change password
get_principal, getprinc Get principal
list_principals, listprincs, get_principals, getprincs
List principals
add_policy, addpol Add policy
modify_policy, modpol Modify policy
delete_policy, delpol Delete policy
get_policy, getpol Get policy
list_policies, listpols, get_policies, getpols
List policies
get_privs, getprivs Get privileges
ktadd, xst Add entry(s) to a keytab
ktremove, ktrem Remove entry(s) from a keytab
lock Lock database exclusively (use with extreme caution!)
unlock Release exclusive database lock
purgekeys Purge previously retained old keys from a principal
get_strings, getstrs Show string attributes on a principal
set_string, setstr Set a string attribute on a principal
del_string, delstr Delete a string attribute on a principal
list_requests, lr, ? List available requests.
quit, exit, q Exit program.
查看具体的命令用法,直接输入命令按回车,如下:
kadmin: addprinc
usage: add_principal [options] principal
options are:
[-randkey|-nokey] [-x db_princ_args]* [-expire expdate] [-pwexpire pwexpdate] [-maxlife maxtixlife]
[-kvno kvno] [-policy policy] [-clearpolicy]
[-pw password] [-maxrenewlife maxrenewlife]
[-e keysaltlist]
[{+|-}attribute]
attributes are:
allow_postdated allow_forwardable allow_tgs_req allow_renewable
allow_proxiable allow_dup_skey allow_tix requires_preauth
requires_hwauth needchange allow_svr password_changing_service
ok_as_delegate ok_to_auth_as_delegate no_auth_data_required
lockdown_keys
where,
[-x db_princ_args]* - any number of database specific arguments.
Look at each database documentation for supported arguments
add_principal, addprinc, ank 这几个命令都可以创建主体(相当于用户)
服务器操作测试:
# kadmin.local 进入到控制台
控制台是以kadmin开头的,如下:
kadmin: addprinc yjt/yjt #创建主体(用户)yjt/yjt 需要输入密码
kadmin: addprinc -pw 123456 yjt/yjt # 创建yjt/yjt主体,密码使用-pw指定
kadmin: addprinc -randkey yjt/yjt #生成随机密码
delete_principal, delprinc # 删除主体,删除的时候会询问是否删除
kadmin: delprinc yjt/yjt
Are you sure you want to delete the principal "yjt/yjt@HADOOP.COM"? (yes/no): yes
Principal "yjt/yjt@HADOOP.COM" deleted.
Make sure that you have removed this principal from all ACLs before reusing.
modify_principal, modprinc #修改用户
比如修改延迟到期时间:
kadmin: modprinc -maxrenewlife 8days yjt/yjt
Principal "yjt/yjt@HADOOP.COM" modified.
list_principals, listprincs, get_principals, getprincs #列出当前凭证
kadmin: listprincs
HTTP/yjt@HADOOP.COM
K/M@HADOOP.COM
admin/admin@HADOOP.COM
dn/yjt@HADOOP.COM
hbase/yjt@HADOOP.COM
hdfs/yjt@HADOOP.COM
hive/yjt@HADOOP.COM
host/yjt@HADOOP.COM
jn/yjt@HADOOP.COM
kadmin/admin@HADOOP.COM
kadmin/changepw@HADOOP.COM
kadmin/manager1@HADOOP.COM
kiprop/manager1@HADOOP.COM
krbtgt/HADOOP.COM@HADOOP.COM
nm/yjt@HADOOP.COM
nn/yjt@HADOOP.COM
rm/yjt@HADOOP.COM
test@HADOOP.COM
yarn/yjt@HADOOP.COM
yjt/yjt@HADOOP.COM
zkcli/yjt@HADOOP.COM
zkcli@HADOOP.COM
zkserver/yjt@HADOOP.COM
zookeeper/yjt@HADOOP.COM
ktadd, xst
kadmin: xst -norandky -k hadoop.keytab jn/yjt nn/yjt # -k指定密钥文件的位置,如果是相对路径,文件生成在当前路径下,可以指定多个认证主体
如何合并多个密钥文件的信息到一个文件?例如,在当前路径下,存在nn.keytab, dn.keytab ,现在我想把这两个文件里面的密钥合并到hadoop.keytab,操作如下:
在命令行输入ktutil
#ktutil #进入到控制台
read_kt, rkt #这两个命令可以从keytab里面读取出密钥信息
ktutil: rkt nn.keytab
ktutil: rkt dn.keytab
write_kt, wkt # 这两个命令可以把当前的keylist写入到一个keytab文件,这个keylist信息就是上面使用rkt从keytab读取的信息
ktutil: wkt hadoop.keytab
get_principal, getprinc # 获取凭据信息的两个命令
kadmin.local: getprinc yjt/yjt
Principal: yjt/yjt@HADOOP.COM
Expiration date: [never]
Last password change: Thu Oct 24 18:01:22 CST 2019
Password expiration date: [never]
Maximum ticket life: 1 day 00:00:00
Maximum renewable life: 8 days 00:00:00 注意这里:刚才被我们该过
Last modified: Thu Oct 24 18:07:28 CST 2019 (admin/admin@HADOOP.COM)
Last successful authentication: [never]
Last failed authentication: [never]
Failed password attempts: 0
Number of keys: 8
Key: vno 1, aes256-cts-hmac-sha1-96
Key: vno 1, aes128-cts-hmac-sha1-96
Key: vno 1, des3-cbc-sha1
Key: vno 1, arcfour-hmac
Key: vno 1, camellia256-cts-cmac
Key: vno 1, camellia128-cts-cmac
Key: vno 1, des-hmac-sha1
Key: vno 1, des-cbc-md5
MKey: vno 1
Attributes:
Policy: [none]
[root@manager1 yjt-test ::]#kdb5_util dump kerberos_data
[root@manager1 yjt-test ::]#ll
total -rw------- root root Oct : kerberos_data
-rw------- root root Oct : kerberos_data.dump_ok
#kpasswd yjt/yjt
Password for yjt/yjt@HADOOP.COM:
Enter new password:
Enter it again:
Password changed.
客户端操作:
[root@manager1 yjt-test ::]#kinit yjt/yjt #基于密码,需要输入密码
[root@manager1 yjt-test 18:28:06]#kinit -kt app.keytab yjt/yjt #基于密钥的方式验证
[root@manager1 yjt-test ::]#klist
Ticket cache: FILE:/tmp/krb5cc_0
Default principal: nm/yjt@HADOOP.COM
Valid starting Expires Service principal
// :: // :: krbtgt/HADOOP.COM@HADOOP.COM
[root@manager1 yjt-test ::]#kdestroy
[root@manager1 kerveros_security ::]#klist -ket hadoop.keytab
Keytab name: FILE:hadoop.keytab
KVNO Timestamp Principal
// :: hdfs/yjt@HADOOP.COM (aes256-cts-hmac-sha1-)
// :: hdfs/yjt@HADOOP.COM (aes128-cts-hmac-sha1-)
// :: hdfs/yjt@HADOOP.COM (des3-cbc-sha1)
// :: hdfs/yjt@HADOOP.COM (arcfour-hmac)
// :: hdfs/yjt@HADOOP.COM (camellia256-cts-cmac)
// :: hdfs/yjt@HADOOP.COM (camellia128-cts-cmac)
// :: hdfs/yjt@HADOOP.COM (des-hmac-sha1)
// :: hdfs/yjt@HADOOP.COM (des-cbc-md5)
// :: yarn/yjt@HADOOP.COM (aes256-cts-hmac-sha1-)
// :: yarn/yjt@HADOOP.COM (aes128-cts-hmac-sha1-)
// :: yarn/yjt@HADOOP.COM (des3-cbc-sha1)
// :: yarn/yjt@HADOOP.COM (arcfour-hmac)
// :: yarn/yjt@HADOOP.COM (camellia256-cts-cmac)
// :: yarn/yjt@HADOOP.COM (camellia128-cts-cmac)
// :: yarn/yjt@HADOOP.COM (des-hmac-sha1)
// :: yarn/yjt@HADOOP.COM (des-cbc-md5)
// :: HTTP/yjt@HADOOP.COM (aes256-cts-hmac-sha1-)
// :: HTTP/yjt@HADOOP.COM (aes128-cts-hmac-sha1-)
// :: HTTP/yjt@HADOOP.COM (des3-cbc-sha1)
// :: HTTP/yjt@HADOOP.COM (arcfour-hmac)
// :: HTTP/yjt@HADOOP.COM (camellia256-cts-cmac)
// :: HTTP/yjt@HADOOP.COM (camellia128-cts-cmac)
// :: HTTP/yjt@HADOOP.COM (des-hmac-sha1)
// :: HTTP/yjt@HADOOP.COM (des-cbc-md5)
// :: host/yjt@HADOOP.COM (aes256-cts-hmac-sha1-)
// :: host/yjt@HADOOP.COM (aes128-cts-hmac-sha1-)
// :: host/yjt@HADOOP.COM (des3-cbc-sha1)
// :: host/yjt@HADOOP.COM (arcfour-hmac)
// :: host/yjt@HADOOP.COM (camellia256-cts-cmac)
// :: host/yjt@HADOOP.COM (camellia128-cts-cmac)
// :: host/yjt@HADOOP.COM (des-hmac-sha1)
// :: host/yjt@HADOOP.COM (des-cbc-md5)
参考:
手机扫一扫
移动阅读更方便
你可能感兴趣的文章