大语言模型驱动的口令管理系统优化与实践

刘志勇 何道敬 成嘉轩 陈志雄 梁承东 彭世强

刘志勇, 何道敬, 成嘉轩, 等. 大语言模型驱动的口令管理系统优化与实践 [J]. 智能系统学报, 2026, 21(1): 257-271. doi: 10.11992/tis.202504017
引用本文: 刘志勇, 何道敬, 成嘉轩, 等. 大语言模型驱动的口令管理系统优化与实践 [J]. 智能系统学报, 2026, 21(1): 257-271. doi: 10.11992/tis.202504017
LIU Zhiyong, HE Daojing, CHENG Jiaxuan, et al. Optimization and practice of password management system driven by large language models [J]. CAAI Transactions on Intelligent Systems, 2026, 21(1): 257-271. doi: 10.11992/tis.202504017
Citation: LIU Zhiyong, HE Daojing, CHENG Jiaxuan, et al. Optimization and practice of password management system driven by large language models [J]. CAAI Transactions on Intelligent Systems, 2026, 21(1): 257-271. doi: 10.11992/tis.202504017

大语言模型驱动的口令管理系统优化与实践

doi: 10.11992/tis.202504017
基金项目: 国家自然科学基金项目(62376074); 国家重点研发计划项目(2024YFE0215300); 深圳市科技计划项目(KJZD20240903100505007, SGDX20230116091244004,JSGGKQTD20221101115655027).
详细信息
    作者简介:

    刘志勇,博士研究生,主要研究方向为网络安全。发表学术论文4篇。E-mail:liuzhiyong0513@163.com;

    何道敬,教授、博士生导师,哈尔滨工业大学(深圳)计算机学院副院长、哈尔滨工业大学(深圳)计算与智能研究院常务副院长。连续多年被评选为“爱思唯尔”中国高被引学者及全球前2%顶尖科学家。E-mail:hedaojinghit@163.com;

    成嘉轩,硕士,主要研究方向为信息安全与AI安全,并参与了多项网络安全标准的制定,持有CISSP认证。发表学术论文4篇。E-mail:lssn1000@163.com.

    通讯作者:

    何道敬. E-mail:hedaojinghit@163.com.

  • 中图分类号: TP304

Optimization and practice of password management system driven by large language models

  • 摘要:

    随着互联网服务的增多,口令管理成为一大挑战。尽管口令管理系统是安全的解决方案,但其可用性受到口令强度评估器和非随机口令生成器设计缺陷的制约,导致口令评估不准确、生成口令强度不足且难以记忆。为解决这些问题,提出了一种基于大语言模型的口令管理系统优化方案。该方案结合微调技术与检索增强生成技术,设计了专门针对口令安全的大语言模型,能够有效识别脆弱口令并提取深层语义特征。同时,创新的非随机口令生成器框架提升了生成口令的强度和易记忆性。通过改进的Zxcvbn算法和口令猜测模型,优化了口令强度评估器的准确性。该方案显著提高了口令管理系统的可用性,促进了其在实际应用中的普及。

     

    Abstract:

    As the number of internet services continues to grow, password management has become a significant challenge. Although password management system (PMS) provide secure solutions, their usability is limited by design flaws in password strength meters (PSM) and non-random password generators (NRPG), leading to inaccurate password assessments, insufficient password strength, and poor memorability. To address these issues, this paper proposes an optimization scheme for PMS based on large language model (LLM). The proposed approach combines fine-tuning techniques with retrieval-augmented generation, creating a specialized LLM model for password security that can effectively identify weak passwords and extract deep semantic features. Meanwhile, an innovative NRPG framework enhances both password strength and memorability. The accuracy of the PSM is optimized through an improved Zxcvbn algorithm and password guessing model. This solution significantly enhances the usability of PMS and promotes its widespread adoption in practical applications.

     

  • 随着互联网服务的增加,用户需要管理多个口令,口令管理系统(password management system, PMS)已成为解决这一问题的主流方案[1]。PMS通过自动生成复杂且安全的口令来平衡安全性与可记忆性。然而,尽管PMS在口令管理中具有潜力,因其安全性、成本和可用性问题,广泛应用仍受限[2]。PMS生成的高随机性口令虽提高了安全性,但也增加了记忆难度,尤其在跨设备验证时,口令的可用性显著降低,影响了用户体验[3-4]。已有研究集中在提高PMS的可用性。例如,Glory等[5]提出了基于说服性文本的口令生成系统,Oesch等[6]改进了传统非随机口令生成器(non-random password generator,NRPG),但仍存在脆弱口令识别和安全性保障不足的问题。因此,PMS中的口令强度评估器(password strength meter,PSM)与NRPG的设计缺陷亟需改进[7]

    本研究旨在通过专用大语言模型(large language model,LLM)优化PMS的可用性,重点提升PSM和NRPG的设计。具体贡献包括:1) 通过构建专用LLM模型提升口令分析和猜测能力,并验证其有效性;2) 基于LLM设计新型NRPG框架,满足个性化口令创建需求;3) 提出重构口令强度评估算法的新方法,优化PSM,并提高识别脆弱口令的精度。

    近年来,LLM在口令安全领域的应用取得了显著进展[8]。2019年,Li等[9]首次基于Transformer架构构建了双向掩码语言模型,并基于该模型开发了一种新型口令猜测模型。此后,Pal等[10]利用14亿条泄露的邮箱账户数据训练了口令相似度模型,并提出了针对定向攻击的防御策略。2021年,Pasquini等[11]设计了一种基于Transformer架构的攻击者行为模拟方法,随后提出了新型的动态口令猜测策略,该策略能够根据具体攻击目标的上下文调整猜测方法,从而提高基于规则的字典攻击效率。

    随着大规模预训练模型的迅速发展,学者们逐步将LLM的生成能力融入口令猜测和强度评估任务中。2023年,Xu等[12]提出了基于双向Transformer的PassBERT(bidirectional encoder representations from Transformers)框架。该框架结合了预训练与微调机制,充分利用预训练模型捕获的口令分布特征,针对不同攻击场景提出了微调策略,增强了模型在实际攻击环境中的适应性。此外,生成模型也开始应用于口令生成领域。PassGAN[13]是首个基于生成对抗网络(generative adversarial network, GAN)构建的口令生成模型,改进后的Wasserstein GAN学习了RockYou泄露口令数据集的分布规律,使生成的口令能够很好拟合该数据集中用户的常见口令创建习惯。Rando等[14]后续提出了PassGPT模型,该模型通过不断训练泄露的口令数据集来提高生成口令的猜测命中率,实验证明其在口令猜测性能上优于传统的GAN模型。

    2025年,Gewida等[15]提出了一种基于机器学习的工具,用于预测智能家居物联网设备中的密码漏洞,并利用LLM提供动态推荐。该方法通过提供数据驱动的模型,预测潜在漏洞并实时生成个性化的安全建议,从而增强物联网安全性。研究表明,检索增强生成(retrieval-augmented generation, RAG)架构相比基线方法,在召回率和F1分数方面表现显著提升,展示了RAG在应对物联网设备口令安全漏洞中的潜力。

    总体而言,通用LLM在提取口令模式和优化口令猜测策略方面已经展示出一定的潜力,但仍存在一些明显的局限性[16]。通用LLM通常是为处理广泛领域的自然语言任务而设计的,并未专门微调以满足口令安全领域的特殊需求[17]。因此,通用LLM在识别口令创建模式时,往往忽略了潜在的语义联系,导致其在口令猜测、PSM和NRPG等赋能场景中的表现未能达到预期[18]。例如,基于通用LLM的NRPG未能充分考虑生成口令的安全性特征,如复杂度、不可预测性以及抵抗字典攻击的能力。此外,基于LLM优化PSM和NRPG任务通常需要模型深入理解、识别和分析口令文本中隐含的口令创建模式和对口令文本间相似性的敏锐察觉力,然而这些特性是通用LLM所欠缺的,这也是现有的通用LLM在口令安全领域无法充分发挥潜力的主要原因之一。因此,开发一种专门面向口令安全研究的LLM,不仅能够提高模型在口令安全任务中的赋能表现,还能根本上解决通用LLM在专用任务中的局限性[19]。本研究旨在填补这一空白,通过设计和训练专门的LLM基础模型,提升PMS系统中PSM与NRPG的性能,从而提高PMS的可用性。

    目前,关于PMS优化的研究主要集中在系统可用性与系统安全性两个维度。研究的核心目标是消除用户的使用顾虑并尽可能提高用户体验,从而推动PMS的普及和使用[1,3]。Collins等[20]在分析PMS使用意向数据后发现,调查对象普遍认为PMS产品提供商应严格控制系统的安全性,并定期向用户反馈PMS的安全状况,以消除用户对PMS安全性的担忧。此外,调查结果还表明,用户普遍期望PMS能够提供更加准确的口令强度反馈,并支持生成既安全又易于记忆的非随机口令功能,以确保生成口令的安全性和便捷性。本文主要聚焦于PMS的可用性维度,因此本节将概述与本研究相关的研究现状。

    在优化PMS的NRPG方面,Oesch等[6]开发了一种基于说服性文本的口令生成系统,通过引导用户的口令创建行为间接提高生成口令的可用性。Murmu等[21]基于双向生成对抗网络(Bi-GAN)提出了一种个性化的口令生成方法,能够在更短时间内生成更具代表性的口令样本。然而,这类方法未能有效保证生成口令的安全强度,从而可能使用户使用弱口令,带来安全隐患。为此,Houshmand等[22]提出了一种结合口令脆弱性识别、分析与纠正的综合解决方案,显著降低了口令使用的安全风险。栗会峰等[23]通过口令猜测对比实验发现,目前PMS主流的非随机口令生成器在强化脆弱口令方面存在显著不足,且难以兼顾生成口令的便捷记忆性。因此,平衡口令安全性与易记性之间的矛盾,依然是优化PMS中的NRPG的重要研究方向。

    在优化PMS的PSM方面,Bonneau等[24]指出,传统基于Shannon熵和猜测熵的评估指标无法准确模拟真实攻击者的行为,导致口令强度评估结果不可靠。随着基于规则工具(如Zxcvbn[25])的出现,口令强度评估的准确性有所提高,但这些方法在处理多语言类型口令时的适应性和评估精度仍然存在局限,尤其对于非英语口令(例如汉语口令)准确性较低。为此,部分研究者致力于将Zxcvbn适配到非英语口令强度评估中。例如,Doucek等[26]成功将Zxcvbn适配到西斯拉夫语类口令数据集,但其新版本的Zxcvbn仍难以推广到其他语言。

    近年来,基于神经网络的口令强度评估方法逐渐兴起。Melicher等[27]设计了一种能够估算口令破解所需猜测次数的神经网络生成器,显著提高了口令强度反馈的准确性。Pereira等[28]提出了一种专门用于口令强度评估的轻量级深度学习框架,实现了可解释的、概率化的口令强度评估。

    尽管如此,现有主流的口令强度评估器仍面临诸多挑战:一方面,传统的熵基方法过度强调随机性,忽视了社会工程学因素和已知口令模式,导致评估结果不够准确;另一方面,基于多类型口令猜测模型的评估方法,因硬件配置和猜测性能的差异,常导致强度评估结果的不一致,进而影响用户对口令强度评估器的信任。因此,如何设计一种能够适应汉语口令的Zxcvbn模型,或是改进现有的口令猜测模型以更好评估汉语口令强度,仍是优化PMS中的PSM的关键研究方向。

    PMS脆弱性调研对优化当前PMS至关重要[1],因为它们直接影响优化工作质量、效率和优化后PMS的性能提升效果。本节将从PMS信息收集、PMS性能对比分析两个方面展开,系统地分析当前主流PMS在口令强度评估和生成方面的不足之处,为后续研究提供理论依据。

    本研究的数据采集工作主要通过安全网站、学术平台、学术期刊以及专业论坛等多个渠道进行,旨在获取主流PMS的基础信息。具体采集内容包括:PMS的基本功能、面向客户的主要语言支持、用户规模、系统功能属性及其在实际应用中的显著缺陷。例如,系统在口令强度评估准确性、脆弱口令识别能力、生成口令的随机性和易记性等方面存在的不足。

    数据采集的具体步骤如下:

    1)基于安全网站、学术搜索引擎、期刊文章、会议论文及专业论坛,收集并核实公开的PMS相关信息,确保信息的真实性与可靠性,制作如表1所示的PMS基本信息表。

    表  1  国内外主流PMS基本信息
    Table  1  Basic information of mainstream PMS at home and abroad
    地区 PMS名称 系统基本信息 功能插件
    国内PMS 腾讯密码管家 面向QQ/微信个人用户;主动使用口令管理用户量未知;免费 PSM、随机口令生成器(random password generator,RPG)、NRPG(支持自定义生成)
    芯盾时代口令管家 面向企业客户;2000+家企业客户;按企业用户数定制收费 PSM、RPG、NRPG(支持自定义生成)
    安恒信息密码保险箱 面向企业客户;客户量未公开;按企业需求定制 PSM、RPG、NRPG(无自定义生成)
    夏冰加密软件 面向个人用户;100万;基础版(免费)、升级版(30元/月) PSM、RPG、NRPG(无自定义生成)
    国际PMS 1Password 面向个人/企业用户;1500万+;个人版(2.99美元/月)、家庭版(4.99美元/月) PSM、RPG(可定制长度、符号类型)、NRPG(支持自定义生成)
    LastPass 面向个人/企业用户;2500万+;免费版(功能受限)、升级版(3美元/月) PSM、RPG、NRPG(无自定义生成)
    Dashlane 面向个人/企业用户;1500万+;高级版(4.99美元/月)、家庭版(7.49美元/月) PSM、RPG(可定制长度、符号类型)、NRPG(支持自定义生成)
    Keeper Security 面向个人/企业用户;1000万+;个人版(2.91美元/月)、家庭版(6.24美元/月) PSM、RPG、NRPG(支持自定义生成)
    注:PSM、RPG、NRPG、“支持自定义生成”NRPG可根据用户的个性化设置调整非随机口令生成策略。

    2)通过注册、体验、测试不同PMS产品的主功能,获取一手的功能缺陷数据,包括脆弱口令识别准确率、口令强度评估精度以及生成口令的易记性等实测结果。

    3)将所有收集到的数据经过严格清洗与整合,制作PMS缺陷汇总表,为后续的PMS脆弱性分析奠定了数据基础,以便清晰呈现不同PMS系统的性能差异。

    本研究共收集了8个PMS信息,其中国内常用PMS、国际常用PMS各4个,关于它们的详细信息如表1所示。分析表1中的数据后,可以清晰发现,国内外PMS的发展存在显著差异。

    国内市场分析:国内PMS主要集中在企业用户领域,且面向个人用户的产品较为稀缺。特别是,国内许多个人用户依赖于系统内置的口令管理服务(如腾讯密码管家的口令管理功能、浏览器的口令管理插件等)。这些内置化的PMS虽然方便,但通常存在数据泄露的隐患,导致许多中国用户对其信任度较低。出于对隐私保护的担忧以及对国外PMS付费服务的顾虑,国内用户常选择较为传统的、不安全的口令管理方式(如本地存储等)。然而,这种做法不仅安全性差,而且缺乏便捷性,极大限制了口令安全研究和技术的进一步发展[6]

    国际市场分析:相对而言,国际PMS如1Password、LastPass、Dashlane、Keeper Security等,在欧美等地得到了广泛应用。这些产品不仅具备良好的用户基础,且逐渐采用合理的付费模式,深受国际用户信任。数据显示,国外互联网用户对PMS的需求明显高于国内用户,这一现象也间接反映出国际市场在口令安全方面的关注度较高。

    表1的数据来看,国内外PMS产品普遍集成了PSM、RPG和NRPG等基本功能。然而,尽管这些功能普遍存在,实测结果显示,国内外PMS的PSM和NRPG都普遍存在一些关键性问题。具体而言,这些问题包括脆弱口令识别能力差、口令强度反馈不准确、生成的非随机口令难以记忆、支持的自定义生成功能受限,以及生成策略灵活性不足等。(详见表2)

    表  2  PMS功能属性缺陷汇总
    Table  2  PMS function attribute defects summary
    地区 PMS名称 PSM缺陷 NRPG缺陷
    国内PMS 腾讯密码管家 无法准确反馈脆弱口令强度、反馈的强度提升建议不具针对性 生成的非随机口安全性不足且难以记忆、自定义生成功能受限、灵活性差
    芯盾时代口令管家 无法准确反馈脆弱口令强度、强度提升建议不具针对性 生成的非随机口令安全性不足且难以记忆、自定义生成功能受限、灵活性差
    安恒信息密码保险箱 反馈的强度提升建议不具针对性 生成的非随机口令安全性不足且难以记忆
    夏冰加密软件 无法准确反馈脆弱口令强度、强度提升建议不具针对性 生成的非随机口令安全性不足且难以记忆
    国际PMS 1Password 强度提升建议不具针对性 生成的非随机口安全性不足、自定义生成功能受限、灵活性差
    LastPass 强度提升建议不具针对性 长度区间不足、生成的非随机口安全性不足且难以记忆
    Dashlane 强度提升建议不具针对性 生成的非随机口安全性不足、自定义生成功能受限、灵活性差
    Keeper Security 强度提升建议不具针对性 生成的非随机口安全性不足、自定义生成功能受限、灵活性差

    为有效解决PMS共性问题并增强用户群体对系统安全性和可靠性的信任,本研究构建专门面向口令安全研究的LLM,并基于该模型提出可行的改进方案,以弥补现有PMS的不足之处,如优化生成策略与强度评估算法等。同时,本研究设计了一个验证框架,用以评估所提改进方案的有效性与实际表现。研究的总体框架如图1所示。

    图  1  基于LLM优化PMS的总体流程
    Fig.  1  Overall flowchart of optimizing PMS based on LLM
    下载: 全尺寸图片

    主要包括以下两个核心阶段:

    1) 口令安全研究专用LLM的构建。为了提升口令分析的准确性,本研究开发了一个安全导向型的高质量LLM。该模型通过整合相关的预训练口令安全语料库,并采用无监督自回归技术,增强了模型的泛化能力,从而能够有效捕获口令安全领域的相关知识。本阶段的详细实施过程将在第4章中进一步阐述。

    2) PMS的优化。在PMS优化阶段,本研究主要聚焦于改进非随机口令生成与强度评估功能。通过对LLM的微调,本研究设计了个性化的非随机口令生成策略,确保生成的口令不仅符合用户偏好,而且能够维持较高的安全强度。此外,为了进一步提升强度评估模块的效果,本研究结合LLM进行口令特征分析,重构了评估算法,以提高口令强度判定的准确性与可靠性。这些改进旨在显著增强PMS生成口令的安全性与可用性,从而推动PMS的广泛应用,并为口令安全技术的持续演进提供有力支撑。优化阶段的具体工作流程如图2所示,相关的详细细节将在第5章和第6章中分别展开论述。

    图  2  优化PMS的具体工作流程
    Fig.  2  Specific workflow of optimizing PMS
    下载: 全尺寸图片

    通过将上述方法紧密融合,本研究所构建的框架实现了对PMS的全面优化,充分展现了LLM在口令安全领域的广泛应用潜力。

    随着口令安全威胁的不断演变,口令猜测和生成面临越来越复杂的挑战。传统的口令分析方法受限于静态规则和浅显模型,无法有效处理动态变化的口令创建模式和复杂的攻击策略。因此,针对口令安全研究的专用LLM的构建,要求深度结合口令结构的独特性和生成规律,同时结合高效的优化技术以应对大规模数据和多样化攻击。

    通用型LLM通常缺乏针对口令生成和分析的特异性[17]。在此背景下,本研究构建面向口令安全研究的LLM框架,如图3所示,该框架主要通过以下几个技术创新点来解决这一问题。

    图  3  面向口令安全研究的大语言模型的整体框架
    Fig.  3  Framework of LLM for command security research
    下载: 全尺寸图片
    4.1.1   定制化语料库的构建与处理

    口令的创建具有独特的结构特征,通常在语法和语义上都遵循某些非随机的规律。例如,日期类数字串是最常见的数字串类型,特殊字符主要出现在字符串的尾部,“a”“e”“o”等在自然语言学上常见的元音在口令串中依然常见。

    为了有效捕捉这些规律,我们构建了一个面向口令安全的定制化语料库,专门包括社会工程数据、常见口令组合、攻击模式(如字典攻击、暴力破解)及其动态演化。语料库构建过程包括多源数据收集、去重清洗、字符规范化及异常样本剔除,并结合社会工程特征与攻击模式生成样本,以保证数据的多样性与真实性[29]

    通过对口令生成过程的详细建模,定义口令生成的概率分布:

    $$ P\left(x\right)=\prod\limits_{i=1}^{n}p({x}_{i}|{x}_{ \lt i}) $$ (1)

    式中:x表示一个口令序列,x<i表示当前口令前i个字符的上下文。式 (1) 基于自回归语言建模方法,通过对每个字符的条件概率建模,可以捕捉口令生成过程中的潜在规律和变化趋势。

    4.1.2   自回归模型与上下文信息的深度融合

    为了更好地捕捉口令生成过程中的结构性和变化性,本研究采用自回归模型(autoregressive model),并对模型进行了优化,使其在训练时能够高效学习口令的字符结构[30]。具体而言,我们在训练过程中通过最小化损失函数来优化模型参数:

    $$ L(\theta )=-\sum\limits_{i=1}^{n}\log p({x}_{i}|{x}_{ \lt i};\theta ) $$ (2)

    式中:θ为模型的参数,P(xi | x<i;θ)为在给定上下文条件下生成字符xi的条件概率。该训练目标能使模型在每次生成字符时,考虑到先前字符的上下文信息,从而更好模拟实际口令生成的复杂性。

    4.1.3   稀疏混合专家模型的引入

    针对口令分析中存在的计算瓶颈问题,特别是在大规模数据处理与模型扩展方面,提出稀疏混合专家(sparse mixture of experts, SMoE)模型的应用[31]。SMoE模型通过选择性地激活部分专家网络来提升计算效率,并在处理高维度口令数据时保持良好的表现。SMoE的核心思想是将整个模型划分为多个子模型(专家),每个子模型在处理某些特定口令模式时表现最佳。在推理过程中,仅激活与当前输入最相关的部分专家,从而显著减少计算量。

    在口令安全研究中,SMoE模型能够在不同的口令结构(如数字、字母、符号混合的口令)下表现出较强的适应性。具体而言,SMoE的训练目标可以描述为

    $$ \hat{y} \overset{k}{\underset{k=1}{=\sum}} {\alpha }_{k}\left(x\right) {f}_{k}\left(x\right) $$ (3)

    式中:$ \hat{y} $ 为模型的预测输出,k为专家的数量,αk(x)为输入x与第k个专家相关的权重系数,fk (x) 为第k个专家的输出函数。通过稀疏激活机制,SMoE模型能够动态选择适应性强的专家进行计算,从而在口令分析任务中实现高效处理。

    4.2.1   提示词微调

    提示词微调是一种通过设计特定的提示词,使得LLM能够生成更符合口令生成任务要求的输出的方法。在这一过程中,我们通过优化提示词的权重,以提高模型在口令生成和安全评估任务中的表现[32]。具体而言,模型的输入可以表示为

    $$ {\textit{z}}=\text{Prompt}+x $$ (4)

    式中:x为模型输入的口令数据,Prompt为特定设计的提示词。通过训练模型来优化Prompt和x的结合方式,模型可以更好地生成符合实际需求的口令。

    4.2.2   低秩适应

    为了提升微调的计算效率,本研究引入了低秩适应(low-rank adaptation, LoRA)技术。低秩适应通过在模型内部引入低秩矩阵来减少模型参数的更新量,从而在不牺牲性能的前提下大幅度减少计算资源的消耗[33]。具体的数学表述为

    $$ \Delta W={\boldsymbol{AB}} $$ (5)

    式中:ΔW为模型参数的更新;AB分别为低秩矩阵,通常A∈$ {\bf{R}}^{{d \times r}} $,B∈$ {\bf{R}}^{{r \times d}} $,其中r是低秩矩阵的秩。通过这种方式,LoRA能够在减少参数更新的同时保留良好的泛化能力和适应性。

    4.2.3   适配器微调

    适配器微调技术通过在模型中插入轻量级的适配器模块来快速调整模型的任务特定行为[34]。这种方法不需要修改预训练的主模型架构,从而减少了微调的复杂性。适配器模块的数学表示可以描述为

    $$ {h}_{{\mathrm{out}}}=h+{{\boldsymbol{W}}}_{\alpha }\cdot \text{Activation}(h) $$ (6)

    式中:h为输入特征,$ {{\boldsymbol{W}}}{_\alpha} $为适配器的权重矩阵,$ \text{Activation}(h) $为激活函数。通过这一方法,适配器能够灵活地适应不同口令生成和评估任务,并在面对新型安全威胁时迅速做出调整。值得注意的是,尽管适配器微调主要关注参数效率和任务适应性,但在实际部署中,为了进一步提升模型输出的质量与对齐人类偏好,常结合基于人类反馈的强化学习(RLHF)进行优化[35]。RLHF 通过人类标注的偏好数据训练奖励模型,并利用该模型指导策略优化,使生成内容更符合安全、有用和无害的标准。

    基于微调后的专用LLM基础上,本研究构建了用于口令猜测的多维口令特征库。口令猜测模型可结合专用LLM深入分析目标口令的创建规则、提取目标口令所包含的社会工程学信息,再利用构建的多维度口令特征库来提升口令猜测模型的破解准确率,特别是在破解复杂口令模式和多变口令时,专用LLM提供了强大的赋能支持。

    4.3.1   专用LLM在口令猜测模型中的应用

    构建的专用LLM能够从大规模的口令数据集中提取多维口令创建特征,并将这些特征以加载特征库的形式映射至现有的口令猜测模型中,如PCFG(概率上下文无关文法)[36]与PassGAN[13]等模型。这一集成不仅增强了模型对脆弱口令的识别能力,还能根据用户兴趣与常用术语对社会工程信息进行建模,提高了口令猜测的精准度。

    1)口令猜测模型特征解析增强。LLM框架提取的多维特征经过标准化后,输入至PCFG与PassGAN模型进行训练和优化。提取的特征包括口令的字符分布、生成规律、用户行为特征等,这些信息能够显著提升模型对复杂口令模式的预测能力,尤其是在应对具有特殊字符和多变模式的口令时。

    2) LLM微调增强口令猜测模型。将口令猜测任务视为文本生成问题,我们采用GPT等先进的语言模型生成候选口令,并通过交叉验证微调模型的参数。该方法能够实时适应口令生成的趋势,并有效提升模型在长期使用过程中的准确性和稳定性。

    4.3.2   性能优化与实验验证

    本节将上述优化策略应用于PCFGv4和PassGAN模型,重点解决现有模型在破解含特殊字符口令方面的不足。为验证优化效果,选择两个数据集进行实验:7k7k数据集(2011年泄露的中国某游戏平台数据集,包含19121128条口令,其中295422条含有特殊字符)与MySpace数据集(2016年泄露的国际化社交平台数据集,包含13128817条口令,其中11.44%的口令含有特殊字符)。实验数据集按4∶1的比例划分为训练集和测试集。

    图4所示,优化后的PCFGv4与PassGAN模型在这两个数据集上的表现有所提升,且当口令猜测规模达到4×107时,性能提升效果尤为明显。这表明,优化后的模型在大规模口令猜测场景中表现出显著的性能改进。

    图  4  可靠性验证实验
    Fig.  4  Reliability verification experiment
    下载: 全尺寸图片

    然而,在小规模猜测的情况下,性能提升相对有限,仍有进一步优化的空间。这也反映出优化策略在不同规模攻击场景下的效果存在差异。因此,后续研究将进一步探索针对小规模在线口令猜测场景的优化方法,以提高模型在实际应用中的适应性和效率。

    尽管现有NRPG在平衡口令安全性与可用性方面已有显著进展,但在生成高强度非随机口令时仍面临技术瓶颈[7]。尤其在面对用户个性化需求时,现有NRPG无法兼顾生成口令的安全性与便捷记忆性,导致用户对PMS的信任度下降。本文提出一种基于专用LLM优化NRPG的方法,通过3点核心特性克服上述挑战:1) 基于专用LLM实现深层次的口令创建行为感知;2) 基于专用LLM实现灵活动态调整口令生成策略、定制化口令生成;3)基于LLM及改进的口令猜测模型实现高强度口令自动生成。优化NRPG的整体流程如图5所示。

    图  5  优化NRPG的整体流程
    Fig.  5  Overall process of optimizing NRPG
    下载: 全尺寸图片

    本研究利用专用LLM对用户口令创建行为进行深入分析,通过对历史数据的建模与学习,为个性化或自动化口令生成提供关键数据支撑。具体的行为分析过程如下:

    1) 多维度行为分析。通过使用专用LLM,分析用户历史口令数据,提取多维度口令创建特征,包括用户输入的习惯、口令的频率分布及常见的口令模式。为此,采用了基于自注意力机制的特征抽取方法(Transformer架构[37])对这些数据进行建模,并对口令的生成规律进行量化:

    $$ P({x}_{t}|{x}_{t-1},{x}_{t-2}, \cdots )= \text{Softmax}({{\boldsymbol{W}}}_{h}\cdot \text{Attention}({x}_{t-1})) $$ (7)

    式中:$ {{x}}_{{t}} $表示时间步t的输入特征,$ {{{\boldsymbol{W}}}}_{{h}} $是模型的权重矩阵,Attention()是自注意力机制。

    2) 偏好预测。利用LLM进行用户的语言偏好预测,分析其常用短语、个人兴趣及安全偏好,从而定制化生成具有高安全性且符合用户偏好的口令。

    为了增强预测的准确性,我们引入了基于用户上下文信息的语言模型微调方法,通过最大化用户行为数据的对数似然估计进行微调:

    $$ L\left(\theta \right) = \sum\limits_{i=1}^{N}\log {P}_{\theta }\left({y}_{i}\left| {x}_{i}\right.\right) $$ (8)

    式中:θ表示模型参数,yi是第i个用户行为数据的输出,xi是输入的特征信息。

    在定制化口令生成阶段,发挥LLM在自然语言处理和生成方面的优势,生成满足用户偏好与安全要求的非随机口令:

    1) 关键词预测。使用LLM模型分析用户历史行为,特别是低频但用户偏好的口令元素。通过挖掘这些潜在的关键词,结合语义模型(双向变换器模型),生成适合用户个性化需求的口令。

    2) 语义分析。通过使用自然语言处理技术,解析用户输入的文本或关键提示,提取目标语义模式,并将这些语义模式映射到口令生成空间中。例如,使用命名实体识别技术来从文本中提取重要的实体(如地名、日期等),并将其嵌入到口令中,保证口令的高语义相关性。

    3) 安全口令生成。结合LLM模型的预测能力,生成强度高且语义连贯的非随机口令。通过对生成的口令进行随机性调整和复杂度增强(如混合字母大小写、添加符号等),确保口令具有高强度安全性。

    为了提高生成口令的强度,本文对猜测模型进行改进,并与LLM微调结合使用,以实现以下优化目标:

    1) 关键特征提取。基于LLM提取影响口令强度的关键特征,例如字符分布[38]、口令长度[39]、字典与非字典词汇比例等[40]。这些特征被用于对口令的复杂性进行建模。

    2) 性能优化。引入改进后的门控循环单元(gated recurrent unit, GRU)模型,通过调整隐藏层参数、优化梯度更新方法来提升口令生成模型的预测效率[41]。具体来说,采用长短时记忆网络和GRU的结合,能够提高模型对时序信息的捕捉能力:

    $$ {h}_{t}=\text{GRU}({h}_{t-1},{x}_{t}) $$ (9)

    式中:ht表示时刻t的隐藏状态,xt是输入特征。

    3) 模块优化。对LLM进行微调,调整生成策略,提升口令生成的准确性和多样性。使用基于Adam优化器的自适应学习率调整,以确保生成策略更符合实际需求[42]

    4) 候选池筛选。在生成的口令集合中,根据预设的安全标准(如抗破解次数、复杂性评分)筛选出最具安全性的口令,作为最终用户部署的候选项。此过程利用了多目标优化算法(Pareto优化)来平衡安全性与可用性[43]

    上述优化流程能够确保NRPG生成的口令既能满足高强度要求,又能适配用户个性化偏好,很好解决了当前PMS集成的NRPG无法提供高强度易记忆非随机口令的难题,从而提升用户对PMS的使用体验。图6给出了改进后的NRPG的工作流程。

    图  6  改进后的NRPG工作流程
    Fig.  6  Workflow of improved NRPG
    下载: 全尺寸图片

    为全面评估优化模块的性能,本文通过多维度验证测试,确保口令生成模块的实际应用效果。

    1)记忆性分析。通过问卷收集了100名用户对生成口令的记忆性情况,再对用户记忆生成口令的程度进行量化:

    $$ S=1-\frac{N\mathrm{_N}}{N} $$ (10)

    式中:NN是错误记忆数,N是总记忆数。基于S将生成口令的易记忆性等级划分为高(0.66≤S≤1)、中(0.33≤S<0.6)、低(0≤S<0.33)3个等级,以此量化生成口令可记忆性的评价指标。通过对比个性化与自动化生成口令的效果,验证了个性化生成的口令具有更高的记忆性。

    2)安全性评估。采用TarGuess-I、PCFG和PassGAN等模型对生成口令的抗破解能力进行评估。通过对口令进行多次攻击模拟,评估口令抵御高强度攻击的能力。安全性评分系统(如Zxcvbn[25])进一步对口令的强度进行等级划分。

    通过对比个性化与自动化生成组的数据样本(表3),发现优化后的模块显著提升了口令的安全性与便捷记忆性。具体表现在:生成的口令能够抵抗高达109次的离线攻击,并且个性化生成的口令在用户记忆性方面评分明显高于自动化生成的口令。研究结果表明,优化的NRPG有效克服了现有PMS集成的NRPG的不足,在保证生成的非随机口令强度的同时显著提升了生成口令的便捷记忆性,实现了预期的性能改进目标。

    表  3  优化的NRPG模型性能测试结果
    Table  3  Performance test results of optimized NRPG module
    示例场景 Top-5生成的口令 易记忆性
    等级
    强度等级 强度分数
    TarGuess-I PCFG PassGAN
    示例场景1 生成类型:个性化生成非随机口令;用户输入的内容:Zhang San和Li Si的结婚周年纪念日是8月13日,口令长度不超过16,特殊字符的数量不超过4。 [Zhang&Li]Wa0813 4
    Wa0813(Zhang&Li) 4
    Zhang&Li(Wa813) 4
    San&Si(Wa0813) 4
    [San&Si]Wa0813 4
    示例场景2 生成类型:自动化生成非随机口令;用户基本信息{姓名:Wu Xiaoming;生日:20001205;邮件:wuxiaoming@163.com;号码:12365504321。} 100%Wxm 1205 4
    Wxm1205@163.coM 4
    Ming 2000.1205 4
    WuXM@1205.coM 4
    Xiaoming1205_Wu 4
    注:强度分数指经优化后Zxcvbn评估的口令强度分数,4分对应强度最高等级。

    现有PMS的漏洞分析表明,当前缺乏面向汉语用户的有效PSM。现有的基于数学模型或机器学习理论的PSM主要面向国际用户(母语为英语用户为主)所设计,难以直接适用于汉语用户场景。为弥补这一空白,本研究提出一种基于改进的口令猜测模型和优化Zxcvbn算法的综合评估方法,旨在通过两者的结合提升口令强度评估的准确性。

    为更准确评估口令强度,本研究提出了一种综合的口令强度评估框架,结合了改进的口令猜测模型与优化Zxcvbn算法。两者相辅相成,共同解决了传统PSM的口令强度评估中的准确性问题。

    1)改进的口令猜测模型。该模型基于专用LLM的口令特征感知与分析能力,分析了大规模口令数据集中口令生成规律与常见结构,能够更精确地估算破解口令所需的猜测次数,尤其对复杂口令的评估具有重要价值。它为破解复杂口令提供了一个动态的、数据驱动的评估工具。

    2)优化Zxcvbn算法。Zxcvbn是一个广泛应用于口令强度评估的工具,但其在汉语口令和复杂口令的评估上存在一定的局限性。本研究在Zxcvbn算法的基础上,进一步增强了对汉语口令的支持,改进了字典匹配的能力,并提升了复杂度分析的精确性。

    两者的结合能够充分利用各自的优势,确保口令强度评估的全面性与精准性。改进后的整体评估框架如图7所示。

    图  7  改进后的PSM整体评估框架
    Fig.  7  Overall evaluation framework of improved PSM
    下载: 全尺寸图片

    为了优化口令强度评估方法,首先需要构建一个适应汉语用户口令的高质量口令强度数据集。数据集构建方法如图8所示。

    图  8  口令强度数据集构建方法
    Fig.  8  Password Strength Dataset Construction Method
    下载: 全尺寸图片

    1)数据集清理与筛选。为确保数据质量,从国际和国内两类数据集中筛除掉不包含英文或汉语拼音的口令,避免噪声数据对训练过程造成干扰[38]。所有口令数据均通过人工审查与数据预处理,去除拼写错误、无效字符或极其简化的组合。

    2)数据集平衡。为避免类别不平衡问题,在国内和国际口令数据集中随机抽取等量的样本,确保数据集的代表性,且符合多样性需求。

    3) Zxcvbn标记。首先利用Zxcvbn模型对国际数据集进行初始的强度标记,并针对国内数据集,利用融合了汉语词典的Zxcvbn模型进行标注。这里需要特别指出,Zxcvbn模型的强度标签通过机器学习算法生成,原始标签(弱/中/强)提供了初步的强度评估。

    4)数据集融合。结合来自国内外的口令强度数据集,确保训练数据的多样性与广泛性。最终,合并后的数据集作为模型训练和评估的基础。

    6.3.1   优化原理

    优化方法的核心原理是通过引入先进的口令猜测模型和相似度计算方法,对Zxcvbn算法进行改进,并基于GRU训练的口令猜测模型进一步提升口令强度的评估能力。优化过程为:

    1)基于Zxcvbn的优化。改进Zxcvbn算法,通过引入中文词典、拼音词典和多种相似度计算方法(如Levenshtein、Fuzz、Jaro-Winkler等[44]),提升模型在中文口令上的评估能力。Zxcvbn模型的基础功能是根据字典匹配和字符组合复杂度来评估口令的强度。

    2)基于口令猜测模型的优化。除了改进Zxcvbn模型外,还引入了基于改进的口令猜测模型的技术,通过对口令序列的学习和预测,提高口令强度的识别能力。口令猜测模型可以通过分析用户行为数据、历史口令创建模式等信息,捕捉到复杂口令结构中的潜在弱点。

    3)多层次评估。将Zxcvbn算法和口令猜测模型结合,建立一个多层次的强度评估方法。该方法不仅能够通过字典匹配进行初步评估,还能通过口令猜测模型捕捉到更为复杂的口令模式,从而提供更加精确的强度评估。

    6.3.2   优化Zxcvbn算法

    优化流程的关键在于本优化方法引入了更为细致的强度标记机制,将口令强度细化为5个等级(0~4分)。原始Zxcvbn模型仅使用简单的弱、中、强标签,这种粗糙的标记方法无法处理复杂的中文口令。具体优化方法流程如图9所示。

    图  9  优化Zxcvbn流程
    Fig.  9  Optimized Zxcvbn flowchart
    下载: 全尺寸图片

    1)词汇匹配与相似度计算。在相似度计算中,本方法使用了多种距离度量方法,包括Fuzz、Levenshtein、Jaro和Jaro-Winkler算法[44]。每种方法依据其不同的匹配策略,从字面到语义,分别计算口令与字典条目之间的相似度。该方法特别重视汉语词汇的语义相似性,而不仅仅是字符匹配。

    2)GRU模型的引入。为适应汉语口令的特点,GRU模型被引入进行序列建模,处理口令中的上下文信息。与传统的循环神经网络相比,GRU在处理长序列时能够避免梯度消失问题,因此能有效识别复杂的口令组合。

    3)多层次评分机制。针对汉语口令的特殊性,在Zxcvbn的基础上,设计了多层次评分机制,细化口令强度的评估。口令的评分从0~4进行细分,0代表极易猜测,4代表非常安全。同时考虑口令的形态复杂度(字符的多样性)、字典匹配度和口令生成的随机性等多个因素。

    4) K值与破解时间估算。本文模型进一步将K值(破解所需猜测次数)作为关键指标。K值由多个因素共同决定,包括口令的词汇形态多样性(R)、与字典的匹配片段长度(L)以及相似度得分(S)。K值的计算公式为

    $$ K=R\times L\times S $$ (11)

    式中:R表示口令与字典的词汇差异性,L是匹配片段的长度,S是相似度分数。通过公式 (11),系统能够估算口令的破解时间并给出强度分级。

    5)结果评估。最终,模型评估结果基于估算的K值,按照原始Zxcvbn模型的安全标准进行评分,并提供比原始模型更精细的安全评估分数。

    6.3.3   利用口令猜测模型计算猜测次数

    首先,利用改进的口令猜测模型快捷预测成功破解目标口令所需要的猜测次数规模范围;然后,经过多轮猜测实验,进一步精确定位目标口令对应的“破解所需的猜测次数”参数值的区间范围;紧接着,基于预测的猜测次数规模大小修正目标口令对应的“破解所需的猜测次数”参数值集合;最后,计算“破解所需的猜测次数”参数值集合的平均值作为破解目标口令所需的猜测次数。

    6.3.4   综合评分计算方法

    核心思想是结合Zxcvbn算法的初步评分与口令猜测模型的猜测次数,形成综合评分。破解所需的猜测次数作为关键指标,结合Zxcvbn的字典匹配得分,给出口令的最终强度评分。综合评分体系不仅考虑口令的表面复杂度,还考虑了潜在的猜测路径与破解难度。

    6.4.1   实践可行性

    为验证改进算法的有效性,本研究基于He等[39]的测试用例构建对照实验。对比原始Zxcvbn与改进的PSM在同一数据集上的表现。通过引入更细化的评分机制和增强的字典匹配,改进的PSM在多个案例中表现出更精确的强度评估。强度评估准确性变化如表4所示。从表4可以看出,口令“Ch@rles@bcd123”在Zxcvbn中被评为“中”,而在改进后的PSM中被评为“弱”,更准确地反映了其真实的弱口令强度。此外,改进后的PSM能够避免原模型对复杂口令的高估,提供了更为精准的弱口令识别能力。例如,口令“(Char!es)@123.coM”在Zxcvbn中被评为“强”,而在改进后的PSM中被评为“中”。

    表  4  改进后PSM的强度评估准确性变化
    Table  4  Change in strength evaluation accuracy of improved PSM
    脆弱口令示例 PSM类型
    Zxcvbn 改进的PSM
    Charlesabcd123
    Ch@rles@bcd123
    Char!es123!@#$
    Char!es@123.com
    (Char!es)@123.coM

    为定量评估准确性提升,引入强度评估准确性提升率,并通过多个脆弱口令测试集(数据规模104以上)进行计算。强度评估准确性提升率指标(RImprove)指改进的PSM评估的正确性相对于Zxcvbn评估准确性的提高程度。计算公式为

    $$ {R}_{\text{Improve}}=\frac{{A}_{\text{Improved PSM}}-{A}_{\text{Zxcvbn}}}{{A}_{\text{Zxcvbn}}}\ast 100\text{% } $$ (12)

    式中:AImproved PSM指改进的PSM的口令强度评估准确性,AZxcvbn指Zxcvbn的口令强度评估准确性。

    基于收集的改进的PSM和Zxcvbn对多组测试集的强度评估结果,利用式 (12) 可以计算出改进的PSM在多个测试集上RImprove的取值范围为62.5%~85.1%。这一结果表明,在处理具有复杂字符和语义结构的汉语用户口令时,改进的PSM的评估准确性提升最为显著。

    6.4.2   理论可行性

    理论上,改进的口令猜测模型通过深度学习方法能够有效预测口令破解所需的猜测次数,具有良好的适应性与灵活性。而优化后的Zxcvbn算法,则通过增强字典与复杂度分析,提高了口令评估的全面性。两者结合,能够为口令强度评估提供更可靠的理论支持。

    综上所述,本章提出的基于改进的口令猜测模型与优化Zxcvbn算法的优化PSM方案,有效解决了传统PSM在口令强度评估中的不足。通过综合利用两者的优势,形成了一个更加精准、全面的口令强度评估框架。

    本文通过针对PMS可用性问题,提出了一种基于LLM的优化方案,解决了PSM和NRPG中的关键技术瓶颈。实验结果表明,基于专用LLM的PMS在多种实际应用场景中有效提升了生成口令的安全性及易记忆性和口令强度评估的准确性,特别是在提高系统可靠性和用户体验方面具有显著优势。与传统方法相比,本文的创新之处在于结合LLM与现有的口令生成与评估技术,突破了口令安全性和记忆性之间的矛盾。

    尽管取得了良好的结果,仍存在一些挑战,如在面对更复杂的攻击方式时,新型PMS的适应性和鲁棒性仍需进一步加强。此外,本研究的优化方案与先前研究相比,具有较好的普遍性和应用前景,但尚未完全解决PMS中的安全性问题。

    理论上,本文提出的优化框架为PMS的改进提供了新的思路,并在口令强度评估和生成策略上做出了更为精确的贡献;实用性上,本方案能够有效提升PMS的可用性,具有广泛的应用潜力。未来的研究应进一步结合深度学习与安全技术,增强系统的鲁棒性,并探索与用户行为分析的结合,以应对更复杂的安全挑战。

  • 图  1   基于LLM优化PMS的总体流程

    Fig.  1   Overall flowchart of optimizing PMS based on LLM

    下载: 全尺寸图片

    图  2   优化PMS的具体工作流程

    Fig.  2   Specific workflow of optimizing PMS

    下载: 全尺寸图片

    图  3   面向口令安全研究的大语言模型的整体框架

    Fig.  3   Framework of LLM for command security research

    下载: 全尺寸图片

    图  4   可靠性验证实验

    Fig.  4   Reliability verification experiment

    下载: 全尺寸图片

    图  5   优化NRPG的整体流程

    Fig.  5   Overall process of optimizing NRPG

    下载: 全尺寸图片

    图  6   改进后的NRPG工作流程

    Fig.  6   Workflow of improved NRPG

    下载: 全尺寸图片

    图  7   改进后的PSM整体评估框架

    Fig.  7   Overall evaluation framework of improved PSM

    下载: 全尺寸图片

    图  8   口令强度数据集构建方法

    Fig.  8   Password Strength Dataset Construction Method

    下载: 全尺寸图片

    图  9   优化Zxcvbn流程

    Fig.  9   Optimized Zxcvbn flowchart

    下载: 全尺寸图片

    表  1   国内外主流PMS基本信息

    Table  1   Basic information of mainstream PMS at home and abroad

    地区 PMS名称 系统基本信息 功能插件
    国内PMS 腾讯密码管家 面向QQ/微信个人用户;主动使用口令管理用户量未知;免费 PSM、随机口令生成器(random password generator,RPG)、NRPG(支持自定义生成)
    芯盾时代口令管家 面向企业客户;2000+家企业客户;按企业用户数定制收费 PSM、RPG、NRPG(支持自定义生成)
    安恒信息密码保险箱 面向企业客户;客户量未公开;按企业需求定制 PSM、RPG、NRPG(无自定义生成)
    夏冰加密软件 面向个人用户;100万;基础版(免费)、升级版(30元/月) PSM、RPG、NRPG(无自定义生成)
    国际PMS 1Password 面向个人/企业用户;1500万+;个人版(2.99美元/月)、家庭版(4.99美元/月) PSM、RPG(可定制长度、符号类型)、NRPG(支持自定义生成)
    LastPass 面向个人/企业用户;2500万+;免费版(功能受限)、升级版(3美元/月) PSM、RPG、NRPG(无自定义生成)
    Dashlane 面向个人/企业用户;1500万+;高级版(4.99美元/月)、家庭版(7.49美元/月) PSM、RPG(可定制长度、符号类型)、NRPG(支持自定义生成)
    Keeper Security 面向个人/企业用户;1000万+;个人版(2.91美元/月)、家庭版(6.24美元/月) PSM、RPG、NRPG(支持自定义生成)
    注:PSM、RPG、NRPG、“支持自定义生成”NRPG可根据用户的个性化设置调整非随机口令生成策略。

    表  2   PMS功能属性缺陷汇总

    Table  2   PMS function attribute defects summary

    地区 PMS名称 PSM缺陷 NRPG缺陷
    国内PMS 腾讯密码管家 无法准确反馈脆弱口令强度、反馈的强度提升建议不具针对性 生成的非随机口安全性不足且难以记忆、自定义生成功能受限、灵活性差
    芯盾时代口令管家 无法准确反馈脆弱口令强度、强度提升建议不具针对性 生成的非随机口令安全性不足且难以记忆、自定义生成功能受限、灵活性差
    安恒信息密码保险箱 反馈的强度提升建议不具针对性 生成的非随机口令安全性不足且难以记忆
    夏冰加密软件 无法准确反馈脆弱口令强度、强度提升建议不具针对性 生成的非随机口令安全性不足且难以记忆
    国际PMS 1Password 强度提升建议不具针对性 生成的非随机口安全性不足、自定义生成功能受限、灵活性差
    LastPass 强度提升建议不具针对性 长度区间不足、生成的非随机口安全性不足且难以记忆
    Dashlane 强度提升建议不具针对性 生成的非随机口安全性不足、自定义生成功能受限、灵活性差
    Keeper Security 强度提升建议不具针对性 生成的非随机口安全性不足、自定义生成功能受限、灵活性差

    表  3   优化的NRPG模型性能测试结果

    Table  3   Performance test results of optimized NRPG module

    示例场景 Top-5生成的口令 易记忆性
    等级
    强度等级 强度分数
    TarGuess-I PCFG PassGAN
    示例场景1 生成类型:个性化生成非随机口令;用户输入的内容:Zhang San和Li Si的结婚周年纪念日是8月13日,口令长度不超过16,特殊字符的数量不超过4。 [Zhang&Li]Wa0813 4
    Wa0813(Zhang&Li) 4
    Zhang&Li(Wa813) 4
    San&Si(Wa0813) 4
    [San&Si]Wa0813 4
    示例场景2 生成类型:自动化生成非随机口令;用户基本信息{姓名:Wu Xiaoming;生日:20001205;邮件:wuxiaoming@163.com;号码:12365504321。} 100%Wxm 1205 4
    Wxm1205@163.coM 4
    Ming 2000.1205 4
    WuXM@1205.coM 4
    Xiaoming1205_Wu 4
    注:强度分数指经优化后Zxcvbn评估的口令强度分数,4分对应强度最高等级。

    表  4   改进后PSM的强度评估准确性变化

    Table  4   Change in strength evaluation accuracy of improved PSM

    脆弱口令示例 PSM类型
    Zxcvbn 改进的PSM
    Charlesabcd123
    Ch@rles@bcd123
    Char!es123!@#$
    Char!es@123.com
    (Char!es)@123.coM
  • [1] PEARMAN S, ZHANG Shikun, BAUER L, et al. Why people (don’t) use password managers effectively[C]//Fifteenth symposium on usable privacy and security. Santa Clara: [s. n. ], 2019: 319−338.
    [2] FÁBREGA A, NAMAVARI A, AGARWAL R, et al. Exploiting leakage in password managers via injection attacks[EB/OL]. (2024−08−13)[2025−04−23]. https://arxiv.org/abs/2408.07054.
    [3] 娄峰, 韩超. 数据中心用户管理系统的设计与实现[J]. 铁路计算机应用, 2022, 31(4): 65−69. doi: 10.3969/j.issn.1005-8451.2022.04.11

    LOU Feng, HAN Chao. Design and implementation of data center user management system[J]. Railway computer application, 2022, 31(4): 65−69. doi: 10.3969/j.issn.1005-8451.2022.04.11
    [4] 孙亮, 陈小春, 鲍天明, 等. 面向多处理器的内网计算机BIOS口令集中管理机制研究[J]. 信息安全与通信保密, 2021, 19(2): 63−74.

    SUN Liang, CHEN Xiaochun, BAO Tianming, et al. Research on centralized management mechanism of BIOS password of intranet computer for multiprocessor[J]. Information security and communications privacy, 2021, 19(2): 63−74.
    [5] GLORY F Z, UL AFTAB A, TREMBLAY-SAVARD O, et al. Strong password generation based on user inputs[C]//2019 IEEE 10th Annual Information Technology, Electronics and Mobile Communication Conference. Piscataway: IEEE, 2019: 416−423.
    [6] OESCH S, RUOTI S. That was then, this is now: a security evaluation of password generation, storage, and autofill in thirteen password managers[EB/OL]. (2019−08−09)[2025−04−23]. https://arxiv.org/abs/1908.03296.
    [7] GOLLA M, DÜRMUTH M. On the accuracy of password strength meters[C]//Proceedings of the 2018 ACM SIGSAC Conference on Computer and Communications Security. New York: ACM, 2018: 1567−1582.
    [8] PATEL S, MADISETTI V K. PhishGuard: integrating fine-tuned large language models (LLMs) into password management[J]. Journal of information security, 2024, 15(4): 474−493. doi: 10.4236/jis.2024.154027
    [9] LI Hang, CHEN Mengqi, YAN Shengbo, et al. Password guessing via neural language modeling[M]//Machine Learning for Cyber Security. Cham: Springer International Publishing, 2019: 78−93.
    [10] PAL B, DANIEL T, CHATTERJEE R, et al. Beyond credential stuffing: password similarity models using neural networks[C]//2019 IEEE Symposium on Security and Privacy. [S. l. ]: IEEE, 2019: 417−434.
    [11] PASQUINI D, CIANFRIGLIA M, ATENIESE G, et al. Reducing bias in modeling real-world password strength via deep learning and dynamic dictionaries[C]//30th USENIX Security Symposium. [S. l. ]: USENIX, 2020.
    [12] XU Ming, YU Jitao, ZHANG Xinyi, et al. Improving real-world password guessing attacks via bi-directional transformers[C]//32nd USENIX Security Symposium. [S. l. ]: USENIX, 2023: 1001−1018.
    [13] HITAJ B, GASTI P, ATENIESE G, et al. PassGAN: a deep learning approach for password guessing[M]//Applied Cryptography and Network Security. Cham: Springer International Publishing, 2019: 217−237.
    [14] RANDO J, PEREZ-CRUZ F, HITAJ B. PassGPT: password modeling and (guided) generation with large language models[C]//Computer Security–ESORICS 2023. Cham: Springer, 2024: 164−183.
    [15] GEWIDA M, QU Yanzhen. Enhancing IoT security: predicting password vulnerability and providing dynamic recommendations using machine learning and large language models[J]. European journal of electrical engineering and computer science, 2025, 9(1): 8−16. doi: 10.24018/ejece.2025.9.1.666
    [16] KAGNICI O, BISGIN H, ULUDAG S. Evaluating the efficacy of GPT-based password generation on real world data[C]//2025 1st International Conference on Secure IoT, Assured and Trusted Computing (SATC). Piscataway: IEEE, 2025: 1−5.
    [17] GE Yingqiang, HUA Wenyue, MEI Kai, et al. OpenAGI: when LLM meets domain experts[J]. Advances in neural information processing systems, 2023, 36: 5539−5568.
    [18] AN Shengnan, CHEN Weizhu, LIN Zeqi, et al. Make your LLM fully utilize the context[C]//Advances in Neural Information Processing Systems 37. New Orleans: NeurIPS, 2024: 62160−62188.
    [19] XU Haoruo, ZHANG Ning, YIN Zhenyu, et al. GeoLLM: a specialized large language model framework for intelligent geotechnical design[J]. Computers and geotechnics, 2025, 177: 106849. doi: 10.1016/j.compgeo.2024.106849
    [20] MUNYENDO C W, MAYER P, AVIV A J. “I just stopped using one and started using the other”: Motivations, Techniques, and Challenges When Switching Password Managers[C]//Proceedings of the 2023 ACM SIGSAC Conference on Computer and Communications Security. New York: ACM, 2023: 3123−3137.
    [21] MURMU S, KASYAP H, TRIPATHY S. PassMon: a technique for password generation and strength estimation[J]. Journal of network and systems management, 2021, 30(1): 13. doi: 10.1007/s10922-021-09620-w
    [22] HOUSHMAND S, AGGARWAL S. Building better passwords using probabilistic techniques[C]//Proceedings of the 28th Annual Computer Security Applications Conference. New York: ACM, 2012: 109−118.
    [23] 栗会峰, 李铁成, 姚启桂, 等. 基于形态学的电力系统弱口令深度学习检测方案[J]. 计算机应用与软件, 2024, 41(10): 379−385.

    LI Huifeng, LI Tiecheng, YAO Qigui, et al. Weak password deep learning detection scheme for power system based on morphology[J]. Computer applications and software, 2024, 41(10): 379−385.
    [24] BONNEAU J. The science of guessing: analyzing an anonymized corpus of 70 million passwords[C]//2012 IEEE Symposium on Security and Privacy. Piscataway: IEEE, 2012: 538−552.
    [25] WHEELER D L. Zxcvbn: Low-budget password strength Estimation[C]//USENIX Security Symposium. [S. l. ]: USENIX, 2016: 157−173.
    [26] DOUCEK P, PAVLÍČEK L, SEDLÁČEK J, et al. Adaptation of password strength estimators to a non-English environment: the Czech experience[J]. Computers & security, 2020, 95: 101757. doi: 10.1016/j.cose.2020.101757
    [27] MELICHER W, UR B, KOMANDURI S, et al. Fast, lean, and accurate: modeling password guessability using neural networks[C]//USENIX Annual Technical Conference. [S. l. ]: USENIX, 2016.
    [28] PEREIRA D, FERREIRA J F, MENDES A. Evaluating the accuracy of password strength meters using off-the-shelf guessing attacks[C]//2020 IEEE International Symposium on Software Reliability Engineering Workshops. Piscataway: IEEE, 2021: 237−242.
    [29] 岳增营, 叶霞, 刘睿珩. 基于语言模型的预训练技术研究综述[J]. 中文信息学报, 2021, 35(9): 15−29.

    YUE Zengying, YE Xia, LIU Ruiheng. A review of pre-training technology based on language model[J]. Journal of Chinese information processing, 2021, 35(9): 15−29.
    [30] 邱玉祥, 蔡艳, 陈霖, 等. 基于自回归神经网络的多维时间序列分析[J]. 吉林大学学报(理学版), 2022, 60(5): 1143−1152. doi: 10.13413/j.cnki.jdxblxb.2021318

    QIU Yuxiang, CAI Yan, CHEN Lin, et al. Multidimensional time series analysis based on autoregressive neural network[J]. Journal of Jilin university (science edition), 2022, 60(5): 1143−1152. doi: 10.13413/j.cnki.jdxblxb.2021318
    [31] RIQUELME C, PUIGCERVER J, MUSTAFA B, et al. Scaling vision with sparse mixture of experts[EB/OL]. (2021−06−10)[2025−04−23]. https://arxiv.org/abs/2106.05974.
    [32] OYMAK S, RAWAT A S, SOLTANOLKOTABI M, et al. On the role of attention in prompt-tuning[C]//International Conference on Machine Learning. Hangzhou: ACM, 2023.
    [33] DEVALAL S, KARTHIKEYAN A. LoRa technology - an overview[C]//2018 Second International Conference on Electronics, Communication and Aerospace Technology. Piscataway: IEEE, 2018: 284−290.
    [34] CHAUDHARI S, AGGARWAL P, MURAHARI V, et al. RLHF deciphered: a critical analysis of reinforcement learning from human feedback for LLMs[J]. ACM computing surveys, 2026, 58(2): 1−37. doi: 10.1145/3743127
    [35] 张钦彤, 王昱超, 王鹤羲, 等. 大语言模型微调技术的研究综述[J]. 计算机工程与应用, 2024, 60(17): 17−33. doi: 10.3778/j.issn.1002-8331.2312-0035

    ZHANG Qintong, WANG Yuchao, WANG Hexi, et al. A survey of fine-tuning techniques for large language models[J]. Computer engineering and applications, 2024, 60(17): 17−33. doi: 10.3778/j.issn.1002-8331.2312-0035
    [36] MATSUZAKI T, MIYAO Y, TSUJII J. Probabilistic CFG with latent annotations[C]//Proceedings of the 43rd Annual Meeting on Association for Computational Linguistics-ACL '05. Morristown: ACL, 2005: 75−82.
    [37] 王辰成, 杨麟儿, 王莹莹, 等. 基于Transformer增强架构的中文语法纠错方法[J]. 中文信息学报, 2020, 34(6): 106−114. doi: 10.13209/j.0479-8023.2020.081

    WANG Chencheng, YANG Liner, WANG Yingying, et al. Chinese grammar error correction method based on transformer enhanced architecture[J]. Journal of Chinese information processing, 2020, 34(6): 106−114. doi: 10.13209/j.0479-8023.2020.081
    [38] HE Daojing, LIU Zhiyong, ZHU Shanshan, et al. Special characters usage and its effect on password security[J]. IEEE Internet of things journal, 2024, 11(11): 19440−19453. doi: 10.1109/JIOT.2024.3367323
    [39] HE Daojing, LIU Zhiyong, ZHOU Beibei, et al. The impact of digit semantic patterns on password security[J]. IEEE transactions on dependable and secure computing, 2025, 3639170.
    [40] HE Daojing, LIU Zhiyong, ZHU Shanshan, et al. Exploiting semantics of special characters to strengthen passwords[J]. IEEE transactions on dependable and secure computing, 2025, 3608956.
    [41] DEY R, SALEM F M. Gate-variants of gated recurrent unit (GRU) neural networks[C]//2017 IEEE 60th International Midwest Symposium on Circuits and Systems. Piscataway: IEEE, 2017: 1597−1600.
    [42] 杨观赐, 杨静, 李少波, 等. 基于Dopout与ADAM优化器的改进CNN算法[J]. 华中科技大学学报(自然科学版), 2018, 46(7): 122−127. doi: 10.13245/j.hust.180723

    YANG Guanci, YANG Jing, LI Shaobo, et al. Improved CNN algorithm based on dopout and ADAM optimizer[J]. Journal of Huazhong University of science and technology (nature science edition), 2018, 46(7): 122−127. doi: 10.13245/j.hust.180723
    [43] 刘建昌, 李飞, 王洪海, 等. 进化高维多目标优化算法研究综述[J]. 控制与决策, 2018, 33(5): 879−887. doi: 10.13195/j.kzyjc.2017.1442

    LIU Jianchang, LI Fei, WANG Honghai, et al. Review on evolutionary high-dimensional multi-objective optimization algorithms[J]. Control and decision, 2018, 33(5): 879−887. doi: 10.13195/j.kzyjc.2017.1442
    [44] 王春柳, 杨永辉, 邓霏, 等. 文本相似度计算方法研究综述[J]. 情报科学, 2019, 37(3): 158−168. doi: 10.13833/j.issn.1007-7634.2019.03.026

    WANG Chunliu, YANG Yonghui, DENG Fei, et al. Summary of research on text similarity calculation methods[J]. Information science, 2019, 37(3): 158−168. doi: 10.13833/j.issn.1007-7634.2019.03.026
WeChat 点击查看大图
图(9)  /  表(4)
出版历程
  • 收稿日期:  2025-04-23

目录

    /

    返回文章
    返回