シノプシス ソフトウェア・インテグリティ・グループはブラック・ダックになりました 詳細はこちら

GitHub CopilotやChatGPTのようなAIコーディング・アシスタントは、開発チームにとって革新的なものであり、イノベーションを促進し、これまでより短期間でソフトウェアを提供できるようになります。ブラック・ダック ソリューションなら、リスクを管理しながら、AI生成コードを最大限に活用できます。

AI生成コード:その品質は学習に使用されたコードと同じ

AIコーディング・アシスタントが利用している大規模言語モデル(LLM)は、オープンソース・ソフトウェアの何百万行ものコードやインターネット上で公開されているその他のソース・コードで学習しています。それらのコードが抱える問題を、AIがお客様のコードに持ち込む可能性があります。

不具合と脆弱性

ほとんどのAIコーディング・アシスタントは、学習に使用したコードがセキュアで高品質かどうかを判断できません。お客様が注意しなければ、インターネットのバグが持ち込まれかねません。 

著作権とライセンスのリスク

AIは、ライセンス供与されたオープンソース・プロジェクトからコードをそのままコピーして、コードを生成する場合があります。こうした場合、お客様がIP侵害リスクにさらされる可能性があります。

ブラック・ダックなら自信を持って安全にAIを活用

AI生成コードを投入する前に不具合を見つけて修正

Black Duck Static Analysisソリューションなら、AIが生成したコードをアプリケーション・コードベースに投入する前に、それらが安全かつ高品質でコンプライアンスを満たしていることを確認することができます。

 

Fix
Detect open Source snippets in AI generated code

AI生成コード内のオープンソース・スニペットを検出

Black Duck®ソフトウェア・コンポジション解析(SCA)のスニペット解析を使用すると、AIまたは自社の開発チームを通じてオープンソースがコードに投入されているかどうかを確実に特定できます。そのため、オープンソースのライセンス義務や知的財産権侵害で不意を突かれることはありません。

AppSecプログラムがAIのペースに対応できるようにする

1つ確実なのは、AIはコードを量産し、速度を速めますが、新たな形態のソフトウェア・リスクももたらすことです。AppSecプログラムの準備はできていますか? ブラック・ダックを使用すると、セキュリティをDevOpsワークフローに組み込むことで、セキュリティを確保しながら速やかに開発することができます。

生成AIはソフトウェア・コーディングに大きな変革をもたらすでしょう。開発自動化技術と組み合わせることで、プログラマーの作業の最大30%を自動化できます。"

Gartner Hype Cycle for Artificial Intelligence 2023

|

AIのリスク管理に関する詳細はこちら

OSSのセキュリティ、品質、ライセンス・リスクを理解する

ブラック・ダックがオープンソース・コンポーネントをどのように可視化しているかをご覧ください