资料列表
Preview Name 作者 Date File info
  • 浅谈互联网安全建设
    • 电商金融面临的主要风险类型
    • 基础安全
    • 关于设备告警/日志
    • 安全体系
    • 业务安全
    • 风控
    • 关于机器学习的应用
    • DGA恶意域名判断
林鹏 2018-11-29 02:43:30
  • 附件: 1 个
  • 大小: 3.04 M
  • 机器学习对高度自动驾驶功能安全系统的挑战
  • Can Machine Learning in Highly Automated Driving Exist in a Functional Safety System?

    Mark A. Crawford, Jr. Great Wall Motor ABSTRACT Machine learning (ML) is increasingly becoming a key enabling technology for highly automated driving (HAD) vehicles. With all the significant advances that ML has contributed in HAD, there are significant challenges in assessing the risks associated with this artificial intelligence technology. ML presents unique hazards and software challenges that require new approaches to ensure functional safety. This presentation will review the difficulties in incorporating ML into HAD to reduce safety risks and will discuss recommendations for solving these problems in a functional safety context.

    机器学习(ML)技术正日益成为推动高度自动驾驶(HAD)汽车发展的关键因素。不过,ML 技术在推动 HAD 汽车实现重大发展的同时,也带来了一些新的安全风险。具体来说,ML 技术的应用给汽车功能安全 带来了新风险与新的软件挑战。本演讲将侧重介绍ML 技术应用于HAD 汽车所带来的安全风险,并就如 何提高HAD 汽车功能安全提出了几点建议。

Mark A. Crawford, Jr. @长城汽车 2018-11-27 09:05:37
  • 附件: 1 个
  • 大小: 5.25 M
  • 唯品会攻击检测实践
  • 议题简介:

    • (1)在海量流量中检测攻击,有如大海捞针。传统的攻击检测方案消耗大量机器性能。
    • (2)如何利用流量特点,制定适用于大流量业务的攻击测方案:更少的性能需求,更好的效果。
    • (3)唯品会的攻击检测 pipeline:异常检测 + 机器学习 + 专家反馈。
姜朋序 唯品会信息安全工程师 2018-11-24 11:06:42
  • 附件: 1 个
  • 大小: 0.78 M
携程 岳良 2018-09-19 04:57:43
  • 附件: 1 个
  • 大小: 3.45 M
  • TACTICAL APPROACHES VS. SELF ORGANIZED SWARMBOTS
    • 1986: Craig Reynolds Creates Boids AI Sim
    • Original 1986 BOID Life Simulation Model
    • 1989: Swarm Intelligence is Coined
    • Ant Colony Optimization
    • Software Examples: Swarm Robotics
    • Botnet Building Blocks
    • Blackhat Swarms –Removing the C2
    • Hide and Seek
    • Intent Based Solutions: Swarm Networks
    • Mar 2018: Canonical ES Exploits Q*Bert
Derek Manky Chief, Security Insights - Fortinet 2018-09-18 02:45:03
  • 附件: 1 个
  • 大小: 1.9 M
  • Security for Machine Learning
  • Security for Machine Learning

    • •Integrity
      • – Training
      • – Deployment/Prediction
    • •Confidentiality
      • – Users: private training and testing data
      • –Service providers: confidential algorithms, models, and hyperparameters
Neil Gong ECE Department Iowa State University 2018-09-17 13:52:50
  • 附件: 1 个
  • 大小: 1.33 M
于忠臣-安赛科技 2018-09-02 11:21:08
  • 附件: 1 个
  • 大小: 3.56 M
  • NLP机器学习模型安全性及实践
    • 机器学习攻击分类
    • 1.对于机器学习的攻击
      • 代码攻击
      • 算法攻击
      • 频率攻击
      • 算法攻击
    • 2.问答机器人遇到的坑
    • 3.有问题的解决方案
      • 数据污染
吴鹤意 2018-08-19 12:23:32
  • 附件: 1 个
  • 大小: 4.32 M
  • 人工智能在Web安全领域的应用
  • 传统的基于攻击特征的安全防护,存在着特征库难于管理、较高的误报率和漏报率等诸多问题,安全防护效果难以进一步提高,而近年来出现的基于语法规则的检测虽然在一定程度上弥补了特征的不足,但是因为不理解业务,对于有着更高智能的攻击也显得捉襟见肘。演讲将从百度在安全领域的实践出发,与大家一起探讨通过人工智能、机器学习领域的经典方法形成的分析系统效果,和他们如何与传统防护系统相互补充的经验。

    • 从ModSecurity开始说起
    • SQL Tokenizer Parser Analyzer
    • 机器学习初探
    • 支持向量机-XSS检测应用
    • 支持向量机-不足
    • 隐马尔可夫
    • 从浅层学习走向深度神经网络
    • 见证奇迹的时刻
    • 威力不止如此
    • 用户行为分析-电商案例
    • 用户行为分析-难点
    • 总结
冯景辉 百度安全事业部技术总监 2018-06-18 11:42:31
  • 附件: 1 个
  • 大小: 1.92 M
  • Defending Machine Learning against Adversarial Attacks
    • Deep Learning and Applications
      • A Brief Overview of Deep Learning
    • Adversarial and Fooling Samples
      • Adversarial Noise
      • Fooling Samples
    • Training Robust Neural Networks(ICPR'16)
      • The Random Projection Regularizer
    • Intrinsic Dimensionality and Adversarial Robustness
澳大利亚两院院士 Ramamohanarao Kotagiri 2018-06-05 08:19:28
  • 附件: 1 个
  • 大小: 15.62 M