特征向量与PCA:降维技术的原理和实践-程序员宅基地

1.背景介绍

随着数据量的不断增长,数据处理和分析的复杂性也随之增加。降维技术成为了处理高维数据的重要手段,其中特征向量和PCA(主成分分析)是常见的降维方法。本文将详细介绍特征向量与PCA的原理、算法和实践,帮助读者更好地理解和应用这些方法。

1.1 高维数据的挑战

高维数据具有以下特点:

  • 数据点数量较少,特征数量较多。
  • 特征之间存在冗余和相关性。
  • 数据分布和结构复杂,难以直观地理解和可视化。

这些特点使得高维数据处理和分析变得非常困难,导致以下问题:

  • 计算效率低,存储空间需求大。
  • 算法性能差,预测准确度低。
  • 可视化和解释困难,难以提取有意义的信息。

因此,降维技术成为了处理高维数据的关键技术之一。

1.2 降维技术的需求和目标

降维技术的需求和目标包括:

  • 减少数据的维度,降低计算和存储成本。
  • 去除冗余和相关特征,提高算法性能。
  • 简化数据分布和结构,提高可视化和解释性。
  • 保留数据的主要信息和结构,避免信息损失。

降维技术应该满足以下要求:

  • 保持数据的核心特征和结构。
  • 最小化信息损失。
  • 尽可能地保持数据的原始关系。

1.3 降维技术的分类

降维技术可以分为以下几类:

  • 基于信息论的降维:如信息瓶颈、信息纬度减少等方法。
  • 基于簇和聚类的降维:如KPCA(Kernel PCA)、LLE(Locally Linear Embedding)等方法。
  • 基于线性代数的降维:如PCA(主成分分析)、LDA(线性判别分析)等方法。
  • 基于非线性映射的降维:如Isomap、MDS(多维缩放)等方法。
  • 基于机器学习的降维:如梯度下降、支持向量机等方法。

本文主要介绍特征向量与PCA(主成分分析)的原理和实践,这些方法属于基于线性代数的降维技术。

2.核心概念与联系

2.1 特征向量

特征向量(Feature Vector)是指一个向量,用于表示一个数据实例或对象的特征。特征向量中的元素对应于数据实例的特征值,可以用于计算和分析。

特征向量的主要特点:

  • 有限维:特征向量是一个有限维的向量,可以用于表示有限个特征。
  • 数值化:特征向量的元素是数值型的,可以用于计算和分析。
  • 线性组合:特征向量可以通过线性组合得到,即一个特征向量可以通过其他特征向量的线性组合得到。

2.2 PCA(主成分分析)

PCA(主成分分析)是一种基于线性代数的降维技术,其目标是找到数据中的主要信息和结构,将其表示为一组线性无关的主成分。主成分是数据中方差最大的线性组合,可以用于降低数据的维度,同时最大限度地保留数据的核心特征和结构。

PCA的主要特点:

  • 线性组合:PCA通过线性组合原始特征得到主成分,即主成分是原始特征的线性组合。
  • 最大化方差:PCA的目标是找到方差最大的线性组合,即主成分是原始特征的方差最大的线性组合。
  • 降维:PCA的目的是降低数据的维度,同时保留数据的主要信息和结构。

2.3 特征向量与PCA的联系

特征向量和PCA在降维过程中有一定的联系,可以互相转换。具体来说,PCA可以看作是对特征向量的线性组合和重新排序的过程。PCA首先找到方差最大的线性组合,即主成分,然后将这些主成分重新排序,得到一个新的特征向量。这个新的特征向量可以用于表示数据的主要信息和结构,同时降低了数据的维度。

3.核心算法原理和具体操作步骤以及数学模型公式详细讲解

3.1 PCA算法原理

PCA算法的原理是基于线性代数和统计学的原理,包括:

  • 线性代数:PCA通过线性组合原始特征得到主成分。
  • 统计学:PCA通过最大化方差来找到原始特征的主要信息和结构。

PCA算法的核心思路是:

  1. 计算原始特征的协方差矩阵。
  2. 计算协方差矩阵的特征值和特征向量。
  3. 按照特征值的大小对特征向量进行排序。
  4. 选取部分特征向量,构建降维后的特征矩阵。

3.2 PCA算法具体操作步骤

PCA算法的具体操作步骤如下:

  1. 标准化原始数据:将原始数据进行标准化处理,使得各个特征的均值为0,方差为1。
  2. 计算协方差矩阵:计算原始特征的协方差矩阵。
  3. 计算特征值和特征向量:计算协方差矩阵的特征值和特征向量。
  4. 按照特征值的大小对特征向量进行排序:将特征向量按照特征值的大小从大到小排序。
  5. 选取部分特征向量:根据需要降低的维度数选取部分特征向量,构建降维后的特征矩阵。

3.3 数学模型公式详细讲解

3.3.1 协方差矩阵

协方差矩阵是PCA算法的核心数据结构,用于描述原始特征之间的关系。协方差矩阵的大小为原始特征的数量,元素为协方差。协方差是一个量度,用于描述两个随机变量之间的线性关系。协方差的计算公式为:

$$ cov(X,Y) = E[(X - \muX)(Y - \muY)] $$

其中,$X$ 和 $Y$ 是随机变量,$\muX$ 和 $\muY$ 是 $X$ 和 $Y$ 的均值。

3.3.2 特征值和特征向量

特征值和特征向量是协方差矩阵的主要特征,用于描述原始特征之间的关系和主要信息。特征值是协方差矩阵的特征值,特征向量是协方差矩阵的特征向量。

要计算协方差矩阵的特征值和特征向量,可以使用特征分解法(Eigenvalue Decomposition)。特征分解法的公式为:

$$ \Lambda = PDP^T $$

其中,$\Lambda$ 是特征值矩阵,$P$ 是特征向量矩阵,$D$ 是对角线矩阵,其对角线元素为特征值。

3.3.3 降维

降维是PCA算法的主要目标,可以通过选取部分特征向量来实现。降维后的特征矩阵可以通过以下公式得到:

$$ X{reduced} = XrP_r $$

其中,$X{reduced}$ 是降维后的特征矩阵,$Xr$ 是原始特征矩阵,$P_r$ 是选取的特征向量矩阵。

4.具体代码实例和详细解释说明

4.1 导入库和数据准备

首先,我们需要导入相关库和准备数据。这里使用Python的NumPy和Scikit-learn库来实现PCA算法。

```python import numpy as np from sklearn.decomposition import PCA from sklearn.preprocessing import StandardScaler from sklearn.datasets import load_iris

加载鸢尾花数据集

iris = load_iris() X = iris.data y = iris.target ```

4.2 数据标准化

接下来,我们需要对原始数据进行标准化处理,使得各个特征的均值为0,方差为1。

```python

数据标准化

scaler = StandardScaler() Xstd = scaler.fittransform(X) ```

4.3 PCA算法实现

现在,我们可以使用Scikit-learn库中的PCA类来实现PCA算法。

```python

PCA算法实现

pca = PCA(ncomponents=2) # 选取2个主成分 Xpca = pca.fittransform(Xstd) ```

4.4 结果分析

最后,我们可以对结果进行分析,查看降维后的特征矩阵和原始数据的关系。

```python

结果分析

print("降维后的特征矩阵:\n", X_pca) print("原始数据的目标变量:\n", y) ```

5.未来发展趋势与挑战

5.1 未来发展趋势

未来的发展趋势包括:

  • 多模态数据的融合和处理:多模态数据(如图像、文本、音频等)的处理和融合将成为降维技术的重要应用领域。
  • 深度学习与降维的结合:深度学习和降维技术的结合将为降维技术提供更强大的表达能力和更高的效果。
  • 自适应和在线降维:随着数据量的增加,在线和自适应的降维技术将成为重要的研究方向。
  • 融合人工智能和机器学习:人工智能和机器学习的发展将推动降维技术的创新和进步。

5.2 挑战

挑战包括:

  • 高维数据的挑战:高维数据的处理和分析仍然是降维技术的主要挑战之一。
  • 非线性数据的处理:非线性数据的处理和分析仍然是降维技术的一个难点。
  • 解释性和可视化:降维技术的结果解释性和可视化仍然是一个难题。
  • 算法效率和计算成本:降维技术的算法效率和计算成本仍然是一个问题。

6.附录常见问题与解答

6.1 常见问题

  1. PCA和LDA的区别是什么?
  2. 如何选择PCA的维度?
  3. PCA和SVD(奇异值分解)的关系是什么?
  4. 降维后的数据是否可以直接用于机器学习模型?

6.2 解答

  1. PCA和LDA的区别在于:PCA是一种基于线性代数的降维技术,其目标是找到原始特征的方差最大的线性组合;LDA是一种基于线性判别分析的降维技术,其目标是找到原始特征的判别信息最大的线性组合。
  2. 选择PCA的维度时,可以根据解释性、准确性和计算成本进行权衡。一种方法是使用交叉验证,根据验证集上的表现来选择最佳的维度数。
  3. PCA和SVD的关系是:PCA可以看作是SVD的一个特例。SVD是一种矩阵分解技术,可以用于分解矩阵并找到其主要特征。PCA是在SVD的基础上,将矩阵分解后的特征值和特征向量用于降维的一个应用。
  4. 降维后的数据可以直接用于机器学习模型,但是需要注意的是,降维后的数据可能会导致部分信息损失,因此需要在降维后进行适当的调整和优化,以确保模型的准确性和效果。

27. 特征向量与PCA:降维技术的原理和实践

1.背景介绍

随着数据量的不断增长,数据处理和分析的复杂性也随之增加。降维技术成为了处理高维数据的重要手段,其中特征向量和PCA(主成分分析)是常见的降维方法。本文将详细介绍特征向量与PCA的原理、算法和实践,帮助读者更好地理解和应用这些方法。

1.1 高维数据的挑战

高维数据具有以下特点:

  • 数据点数量较少,特征数量较多。
  • 特征之间存在冗余和相关性。
  • 数据分布和结构复杂,难以直观地理解和可视化。

这些特点使得高维数据处理和分析变得非常困难,导致以下问题:

  • 计算效率低,存储空间需求大。
  • 算法性能差,预测准确度低。
  • 可视化和解释困难,难以提取有意义的信息。

因此,降维技术成为了处理高维数据的关键技术之一。

1.2 降维技术的需求和目标

降维技术的需求和目标包括:

  • 减少数据的维度,降低计算和存储成本。
  • 去除冗余和相关特征,提高算法性能。
  • 简化数据分布和结构,提高可视化和解释性。
  • 保留数据的主要信息和结构,避免信息损失。

降维技术应该满足以下要求:

  • 保持数据的核心特征和结构。
  • 最小化信息损失。
  • 尽可能地保持数据的原始关系。

1.3 降维技术的分类

降维技术可以分为以下几类:

  • 基于信息论的降维:如信息瓶颈、信息纬度减少等方法。
  • 基于簇和聚类的降维:如KPCA(Kernel PCA)、LLE(Locally Linear Embedding)等方法。
  • 基于线性代数的降维:如PCA(主成分分析)、LDA(线性判别分析)等方法。
  • 基于非线性映射的降维:如Isomap、MDS(多维缩放)等方法。
  • 基于机器学习的降维:如梯度下降、支持向量机等方法。

本文主要介绍特征向量与PCA(主成分分析)的原理和实践,这些方法属于基于线性代数的降维技术。

2.核心概念与联系

2.1 特征向量

特征向量(Feature Vector)是指一个向量,用于表示一个数据实例或对象的特征。特征向量的元素对应于数据实例的特征值,可以用于计算和分析。

特征向量的主要特点:

  • 有限维:特征向量是一个有限维的向量,可以用于表示有限个特征。
  • 数值化:特征向量的元素是数值型的,可以用于计算和分析。
  • 线性组合:特征向量可以通过线性组合得到,即一个特征向量可以通过其他特征向量的线性组合得到。

2.2 PCA(主成分分析)

PCA(主成分分析)是一种基于线性代数的降维技术,其目标是找到数据中的主要信息和结构,将其表示为一组线性无关的主成分。主成分是数据中方差最大的线性组合,可以用于降低数据的维度,同时最大限度地保留数据的核心特征和结构。

PCA的主要特点:

  • 线性组合:PCA通过线性组合原始特征得到主成分,即主成分是原始特征的线性组合。
  • 最大化方差:PCA的目标是找到方差最大的线性组合,即主成分是原始特征的方差最大的线性组合。
  • 降维:PCA的目的是降低数据的维度,同时保留数据的主要信息和结构。

2.3 特征向量与PCA的联系

特征向量和PCA在降维过程中有一定的联系,可以互相转换。具体来说,PCA可以看作是对特征向量的线性组合和重新排序的过程。PCA首先找到方差最大的线性组合,即主成分,然后将这些主成分重新排序,得到一个新的特征向量。这个新的特征向量可以用于表示数据的主要信息和结构,同时降低了数据的维度。

3.核心算法原理和具体操作步骤以及数学模型公式详细讲解

3.1 PCA算法原理

PCA算法的原理是基于线性代数和统计学的原理,包括:

  • 线性代数:PCA通过线性组合原始特征得到主成分。
  • 统计学:PCA通过最大化方差来找到原始特征的主要信息和结构。

PCA算法的核心思路是:

  1. 计算原始特征的协方差矩阵。
  2. 计算协方差矩阵的特征值和特征向量。
  3. 按照特征值的大小对特征向量进行排序。
  4. 选取部分特征向量,构建降维后的特征矩阵。

3.2 PCA算法具体操作步骤

PCA算法的具体操作步骤如下:

  1. 标准化原始数据:将原始数据进行标准化处理,使得各个特征的均值为0,方差为1。
  2. 计算协方差矩阵:计算原始特征的协方差矩阵。
  3. 计算特征值和特征向量:计算协方差矩阵的特征值和特征向量。
  4. 按照特征值的大小对特征向量进行排序:将特征向量按照特征值的大小从大到小排序。
  5. 选取部分特征向量:根据需要降低的维度数选取部分特征向量,构建降维后的特征矩阵。

3.3 数学模型公式详细讲解

3.3.1 协方差矩阵

协方差矩阵是PCA算法的主要数据结构,用于描述原始特征之间的关系。协方差矩阵的大小为原始特征的数量,元素为协方差。协方差是一个量度,用于描述两个随机变量之间的线性关系。协方差的计算公式为:

$$ cov(X,Y) = E[(X - \muX)(Y - \muY)] $$

其中,$X$ 和 $Y$ 是随机变量,$\muX$ 和 $\muY$ 是 $X$ 和 $Y$ 的均值。

3.3.2 特征值和特征向量

特征值和特征向量是协方差矩阵的主要特征,用于描述原始特征之间的关系和主要信息。特征值是协方差矩阵的特征值,特征向量是协方差矩阵的特征向量。

要计算协方差矩阵的特征值和特征向量,可以使用特征分解法(Eigenvalue Decomposition)。特征分解法的公式为:

$$ \Lambda = PDP^T $$

其中,$\Lambda$ 是特征值矩阵,$P$ 是特征向量矩阵,$D$ 是对角线矩阵,其对角线元素为特征值。

3.3.3 降维

降维是PCA算法的主要目标,可以通过选取部分特征向量来实现。降维后的特征矩阵可以通过以下公式得到:

$$ X{reduced} = XrP_r $$

其中,$X{reduced}$ 是降维后的特征矩阵,$Xr$ 是原始特征矩阵,$P_r$ 是选取的特征向量矩阵。

4.具体代码实例和详细解释说明

4.1 导入库和数据准备

首先,我们需要导入相关库和准备数据。这里使用Python的NumPy和Scikit-learn库来实现PCA算法。

```python import numpy as np from sklearn.decomposition import PCA from sklearn.preprocessing import StandardScaler from sklearn.datasets import load_iris

加载鸢尾花数据集

iris = load_iris() X = iris.data y = iris.target ```

4.2 数据标准化

接下来,我们需要对原始数据进行标准化处理,使得各个特征的均值为0,方差为1。

```python

数据标准化

scaler = StandardScaler() Xstd = scaler.fittransform(X) ```

4.3 PCA算法实现

现在,我们可以使用Scikit-learn库中的PCA类来实现PCA算法。

```python

PCA算法实现

pca = PCA(ncomponents=2) # 选取2个主成分 Xpca = pca.fittransform(Xstd) ```

4.4 结果分析

最后,我们可以对结果进行分析,查看降维后的特征矩阵和原始数据的关系。

```python

结果分析

print("降维后的特征矩阵:\n", X_pca) print("原始数据的目标变量:\n", y) ```

5.未来发展趋势与挑战

5.1 未来发展趋势

未来的发展趋势包括:

  • 多模态数据的融合和处理:多模态数据(如图像、文本、音频等)的处理和融合将成为降维技术的重要应用领域。
  • 深度学习与降维的结合:深度学习和降维技术的结合将为降维技术提供更强大的表达能力和更高的效果。
  • 自适应和在线降维:随着数据量的增加,在线和自适应的降维技术将成为重要的研究方向。
  • 融合人工智能和机器学习:人工智能和机器学习的发展将推动降维技术的创新和进步。

5.2 挑战

挑战包括:

  • 高维数据的挑战:高维数据的处理和分析仍然是降维技术的主要挑战之一。
  • 非线性数据的处理和分析:非线性数据的处理和分析仍然是降维技术的一个难点。
  • 解释性和可视化:降维后的数据是否可以直接用于机器学习模型?
  • 算法效率和计算成本:降维技术的算法效率和计算成本仍然是一个问题。

6.附录常见问题与解答

6.1 常见问题

  1. PCA和LDA的区别是什么?
  2. 如何选择PCA的维度?
  3. PCA和SVD(奇异值分解)的关系是什么?
  4. 降维后的数据是否可以直接用于机器学习模型?

6.2 解答

  1. PCA和LDA的区别在于:PCA是一种基于线性代数的降维技术,其目标是找到原始特征的方差最大的线性组合;LDA是一种基于线性判别分析的降维技术,其目标是找到原始特征的判别信息最大的线性组合。
  2. 选择PCA的维度时,可以根据解释性、准确性和计算成本进行权衡。一种方法是使用交叉验证,根据验证集上的表现来选择最佳的维度数。
  3. PCA和SVD的关系是:PCA可以看作是SVD的一个特例。SVD是一种矩阵分解技术,可以用于分解矩阵并找到其主要特征。PCA是在SVD的基础上,将矩阵分解后的特征值和特征向量用于降维的一个应用。
  4. 降维后的数据可以直接用于机器学习模型,但是需要在降维后进行适当的调整和优化,以确保模型的准确性和效果。

27. 特征向量与PCA:降维技术的原理和实践

1.背景介绍

随着数据量的不断增长,数据处理和分析的复杂性也随之增加。降维技术成为了处理高维数据的重要手段,其中特征向量和PCA(主成分分析)是常见的降维方法。本文将详细介绍特征向量与PCA的原理、算法和实践,帮助读者更好地理解和应用这些方法。

1.1 高维数据的挑战

高维数据具有以下特点:

  • 数据点数量较少,特征数量较多。
  • 特征之间存在冗余和相关性。
  • 数据分布和结构复杂,难以直观地理解和可视化。

这些特点使得高维数据处理和分析变得非常困难,导致以下问题:

  • 计算效率低,存储空间需求大。
  • 算法性能差,预测准确度低。
  • 可视化和解释困难,难以提取有意义的信息。

因此,降维技术成为了处理高维数据的关键技术之一。

1.2 降维技术的需求和目标

降维技术的需求和目标包括:

  • 减少数据的维度,降低计算和存储成本。
  • 去除冗余和相关特征,提高算法性能。
  • 简化数据分布和结构,提高可视化和解释性。
  • 保留数据的主要信息和结构,避免信息损失。

降维技术应该满足以下要求:

  • 保持数据的核心特征和结构。
  • 最小化信息损失。
  • 尽可能地保持数据的原始关系。

1.3 降维技术的分

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/universsky2015/article/details/137288805

智能推荐

python简易爬虫v1.0-程序员宅基地

文章浏览阅读1.8k次,点赞4次,收藏6次。python简易爬虫v1.0作者:William Ma (the_CoderWM)进阶python的首秀,大部分童鞋肯定是做个简单的爬虫吧,众所周知,爬虫需要各种各样的第三方库,例如scrapy, bs4, requests, urllib3等等。此处,我们先从最简单的爬虫开始。首先,我们需要安装两个第三方库:requests和bs4。在cmd中输入以下代码:pip install requestspip install bs4等安装成功后,就可以进入pycharm来写爬虫了。爬

安装flask后vim出现:error detected while processing /home/zww/.vim/ftplugin/python/pyflakes.vim:line 28_freetorn.vim-程序员宅基地

文章浏览阅读2.6k次。解决方法:解决方法可以去github重新下载一个pyflakes.vim。执行如下命令git clone --recursive git://github.com/kevinw/pyflakes-vim.git然后进入git克降目录,./pyflakes-vim/ftplugin,通过如下命令将python目录下的所有文件复制到~/.vim/ftplugin目录下即可。cp -R ...._freetorn.vim

HIT CSAPP大作业:程序人生—Hello‘s P2P-程序员宅基地

文章浏览阅读210次,点赞7次,收藏3次。本文简述了hello.c源程序的预处理、编译、汇编、链接和运行的主要过程,以及hello程序的进程管理、存储管理与I/O管理,通过hello.c这一程序周期的描述,对程序的编译、加载、运行有了初步的了解。_hit csapp

18个顶级人工智能平台-程序员宅基地

文章浏览阅读1w次,点赞2次,收藏27次。来源:机器人小妹  很多时候企业拥有重复,乏味且困难的工作流程,这些流程往往会减慢生产速度并增加运营成本。为了降低生产成本,企业别无选择,只能自动化某些功能以降低生产成本。  通过数字化..._人工智能平台

electron热加载_electron-reloader-程序员宅基地

文章浏览阅读2.2k次。热加载能够在每次保存修改的代码后自动刷新 electron 应用界面,而不必每次去手动操作重新运行,这极大的提升了开发效率。安装 electron 热加载插件热加载虽然很方便,但是不是每个 electron 项目必须的,所以想要舒服的开发 electron 就只能给 electron 项目单独的安装热加载插件[electron-reloader]:// 在项目的根目录下安装 electron-reloader,国内建议使用 cnpm 代替 npmnpm install electron-relo._electron-reloader

android 11.0 去掉recovery模式UI页面的选项_android recovery 删除 部分菜单-程序员宅基地

文章浏览阅读942次。在11.0 进行定制化开发,会根据需要去掉recovery模式的一些选项 就是在device.cpp去掉一些选项就可以了。_android recovery 删除 部分菜单

随便推点

echart省会流向图(物流运输、地图)_java+echart地图+物流跟踪-程序员宅基地

文章浏览阅读2.2k次,点赞2次,收藏6次。继续上次的echart博客,由于省会流向图是从echart画廊中直接取来的。所以直接上代码<!DOCTYPE html><html><head> <meta charset="utf-8" /> <meta name="viewport" content="width=device-width,initial-scale=1,minimum-scale=1,maximum-scale=1,user-scalable=no" /&_java+echart地图+物流跟踪

Ceph源码解析:读写流程_ceph 发送数据到其他副本的源码-程序员宅基地

文章浏览阅读1.4k次。一、OSD模块简介1.1 消息封装:在OSD上发送和接收信息。cluster_messenger -与其它OSDs和monitors沟通client_messenger -与客户端沟通1.2 消息调度:Dispatcher类,主要负责消息分类1.3 工作队列:1.3.1 OpWQ: 处理ops(从客户端)和sub ops(从其他的OSD)。运行在op_tp线程池。1...._ceph 发送数据到其他副本的源码

进程调度(一)——FIFO算法_进程调度fifo算法代码-程序员宅基地

文章浏览阅读7.9k次,点赞3次,收藏22次。一 定义这是最早出现的置换算法。该算法总是淘汰最先进入内存的页面,即选择在内存中驻留时间最久的页面予以淘汰。该算法实现简单,只需把一个进程已调入内存的页面,按先后次序链接成一个队列,并设置一个指针,称为替换指针,使它总是指向最老的页面。但该算法与进程实际运行的规律不相适应,因为在进程中,有些页面经常被访问,比如,含有全局变量、常用函数、例程等的页面,FIFO 算法并不能保证这些页面不被淘汰。这里,我_进程调度fifo算法代码

mysql rownum写法_mysql应用之类似oracle rownum写法-程序员宅基地

文章浏览阅读133次。rownum是oracle才有的写法,rownum在oracle中可以用于取第一条数据,或者批量写数据时限定批量写的数量等mysql取第一条数据写法SELECT * FROM t order by id LIMIT 1;oracle取第一条数据写法SELECT * FROM t where rownum =1 order by id;ok,上面是mysql和oracle取第一条数据的写法对比,不过..._mysql 替换@rownum的写法

eclipse安装教程_ecjelm-程序员宅基地

文章浏览阅读790次,点赞3次,收藏4次。官网下载下载链接:http://www.eclipse.org/downloads/点击Download下载完成后双击运行我选择第2个,看自己需要(我选择企业级应用,如果只是单纯学习java选第一个就行)进入下一步后选择jre和安装路径修改jvm/jre的时候也可以选择本地的(点后面的文件夹进去),但是我们没有11版本的,所以还是用他的吧选择接受安装中安装过程中如果有其他界面弹出就点accept就行..._ecjelm

Linux常用网络命令_ifconfig 删除vlan-程序员宅基地

文章浏览阅读245次。原文链接:https://linux.cn/article-7801-1.htmlifconfigping &lt;IP地址&gt;:发送ICMP echo消息到某个主机traceroute &lt;IP地址&gt;:用于跟踪IP包的路由路由:netstat -r: 打印路由表route add :添加静态路由路径routed:控制动态路由的BSD守护程序。运行RIP路由协议gat..._ifconfig 删除vlan