〜講演概要〜
 人工知能(AI)は、学習機能すなわちソフトウェアが自ら部分改修(変化)して 進化する特徴をもつ。自動運転車やサービスロボットなどではAIの応用が 不可欠であり、AIの進化に関する安全性が重要な課題である。  そこで、安全なAIを実現するための設計から実装・保全までの条件、及び AIを実装する全体システムにおけるシステム安全の条件について述べる。  また、AIの安全性の標準化について、現在改訂作業が進捗している機能安全 規格を例として紹介する。