首页 最新 热门 推荐

  • 首页
  • 最新
  • 热门
  • 推荐

【机器学习】逻辑斯蒂回归(LogisticRegression)

  • 25-02-16 04:40
  • 3703
  • 13474
blog.csdn.net

文章目录

  • 逻辑回归LogisticRegression
    • 逻辑回归的基本原理
    • 模型训练
    • 梯度下降
    • 正则化
    • 应用场景
    • 1、逻辑回归概述
      • 1.1、什么是逻辑回归
      • 1.2、Sigmoid函数介绍
    • 2、逻辑回归公式推导
      • 2.1、损失函数推导
      • 2.2、立体化呈现
    • 3、逻辑回归迭代公式
      • 3.1、函数特性
      • 3.2、求导过程
      • 3.3、代码实战
    • 4、逻辑回归做多分类
      • 4.1、One-Vs-Rest思想
      • 4.2、代码实战
    • 5、逻辑斯蒂回归-多分类
      • 5.1、Softmax函数
      • 5.3、代码实战

逻辑回归LogisticRegression

逻辑回归(Logistic Regression)是统计学和机器学习中的一种广义线性模型,用于解决二分类问题。尽管名字里有“回归”二字,但它实际上是一种分类算法。逻辑回归的目的是根据给定的一组输入特征预测一个离散的输出标签。

逻辑回归的基本原理

逻辑回归假设每个输入特征与输出之间存在线性关系,但不同于线性回归直接输出连续值,逻辑回归使用一个称为logit函数(或逻辑函数)的非线性变换将线性组合的结果映射到(0, 1)区间内,这个值可以被解释为某个类别的概率。

对于一个二分类问题,我们通常定义:
在这里插入图片描述
这里 P(Y=1∣X) 表示在给定输入特征 X 的情况下,样本属于类别1的概率;βi是模型的参数,包括偏置项 β0和权重 β1,…,βn 。

逻辑函数(Sigmoid函数)的形式如下:
在这里插入图片描述
它将任意实数值压缩到了(0, 1)范围内,非常适合作为概率估计器。

模型训练

逻辑回归的目标是找到一组最佳的参数 β ,使得预测的概率尽可能接近实际的标签。为了实现这一点,通常采用最大似然估计法来优化参数。具体来说,就是通过最大化训练数据集上的对数似然函数来找到最可能生成观察数据的参数值。

损失函数(Cost Function),也叫负对数似然(Negative Log-Likelihood),一般表示为:
在这里插入图片描述
其中 h β​ (x (i) ) 是预测的概率,y (i)是真实的标签,m 是训练样本的数量。

梯度下降

为了最小化损失函数,逻辑回归同样可以使用梯度下降算法迭代更新参数。每次更新的规则为:
在这里插入图片描述
这里的 α 是学习率,决定了参数更新的步伐大小。

正则化

为了避免过拟合,逻辑回归还可以引入正则化项。常用的正则化方法包括L1正则化(Lasso)、L2正则化(Ridge)以及两者的结合Elastic Net。这些方法通过对参数施加惩罚来简化模型,从而提高其泛化能力。

应用场景

逻辑回归广泛应用于各种需要进行二分类的任务中,如信用评分、疾病诊断、邮件是否为垃圾邮件的分类等。此外,逻辑回归也可以扩展到多分类问题,比如使用一对多(One-vs-Rest, OvR)策略或者softmax回归。

1、逻辑回归概述

1.1、什么是逻辑回归

  逻辑回归不是一个回归的算法,逻辑回归是一个分类的算法,好比卡巴斯基不是司机,红烧狮子头没有狮子头一样。 那为什么逻辑回归不叫逻辑分类?因为逻辑回归算法是基于多元线性回归的算法。而正因为此,逻辑回归这个分类算法是线性的分类器。未来我们要学的基于决策树的一系列算法,基于神经网络的算法等那些是非线性的算法。SVM 支持向量机的本质是线性的,但是也可以通过内部的核函数升维来变成非线性的算法。

  逻辑回归中对应一条非常重要的曲线S型曲线,对应的函数是Sigmoid函数:

image.png

它有一个非常棒的特性,其导数可以用其自身表示:

image.png

import numpy as np
import matplotlib.pyplot as plt
def sigmoid(x):
    return 1/(1 + np.exp(-x))
x = np.linspace(-5,5,100)
y = sigmoid(x)
plt.plot(x,y,color = 'green')
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

image.png

1.2、Sigmoid函数介绍

  逻辑回归就是在多元线性回归基础上把结果缩放到 0 ~ 1 之间。 h θ ( x ) h_{\theta}(x) hθ​(x) 越接近 1 越是正例, h θ ( x ) h_{\theta}(x) hθ​(x) 越接近 0 越是负例,根据中间 0.5 将数据分为二类。其中 h θ ( x ) h_{\theta}(x) hθ​(x) 就是概率函数~

image.png

  我们知道分类器的本质就是要找到分界,所以当我们把 0.5 作为分类边界时,我们要找的就是 y ^ = h θ ( x ) = 1 1 + e − θ T x = 0.5 \hat{y} = h_{\theta}(x) = \frac{1}{1 + e^{-\theta^Tx}} = 0.5 y^​=hθ​(x)=1+e−θTx1​=0.5 ,即 z = θ T x = 0 z = \theta^Tx = 0 z=θTx=0 时, θ \theta θ 的解~

image.png

求解过程如下:

image.png

  什么事情,都要做到知其然,知其所以然,我们知道二分类有个特点就是正例的概率 + 负例的概率 = 1。一个非常简单的试验是只有两种可能结果的试验,比如正面或反面,成功或失败,有缺陷或没有缺陷,病人康复或未康复等等。为方便起见,记这两个可能的结果为 0 和 1,下面的定义就是建立在这类试验基础之上的。 如果随机变量 x 只取 0 和 1 两个值,并且相应的概率为:

  • image.png

  则称随机变量 x 服从参数为 p 的Bernoulli伯努利分布( 0-1分布),则 x 的概率函数可写:

  • f ( x ∣ p ) = { p x ( 1 − p ) 1 − x , x = 1 、 0 0 , x ≠ 1 、 0 f(x | p) = {px(1−p)1−x,x=1、00,x≠1、0
    {px(1−p)1−x,0,x=1、0x≠1、0
    f(x∣p)={px(1−p)1−x,0,​x=1、0x=1、0​

  逻辑回归二分类任务会把正例的 label 设置为 1,负例的 label 设置为 0,对于上面公式就是 x = 0、1。

2、逻辑回归公式推导

2.1、损失函数推导

  这里我们依然会用到最大似然估计思想,根据若干已知的 X,y(训练集) 找到一组 θ \theta θ 使得 X 作为已知条件下 y 发生的概率最大。

image.png

整合到一起(二分类就两种情况:1、0)得到逻辑回归表达式:

image.png

我们假设训练样本相互独立,那么似然函数表达式为:

image.png

化简,累乘变累加:

image.png

  总结,得到了逻辑回归的表达式,下一步跟线性回归类似,构建似然函数,然后最大似然估计,最终推导出 θ \theta θ 的迭代更新表达式。只不过这里用的不是梯度下降,而是梯度上升,因为这里是最大化似然函数。通常我们一提到损失函数,往往是求最小,这样我们就可以用梯度下降来求解。最终损失函数就是上面公式加负号的形式:

image.png

2.2、立体化呈现

from sklearn import datasets
from sklearn.linear_model import LogisticRegression
import numpy as np
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
from sklearn.preprocessing import scale # 数据标准化Z-score

# 1、加载乳腺癌数据
data = datasets.load_breast_cancer()
X, y = scale(data['data'][:, :2]), data['target']

# 2、求出两个维度对应的数据在逻辑回归算法下的最优解
lr = LogisticRegression()
lr.fit(X, y)

# 3、分别把两个维度所对应的参数W1和W2取出来
w1 = lr.coef_[0, 0]
w2 = lr.coef_[0, 1]
print(w1, w2)

# 4、已知w1和w2的情况下,传进来数据的X,返回数据的y_predict
def sigmoid(X, w1, w2):
    z = w1*X[0] + w2*X[1]
    return 1 / (1 + np.exp(-z))

# 5、传入一份已知数据的X,y,如果已知w1和w2的情况下,计算对应这份数据的Loss损失
def loss_function(X, y, w1, w2):
    loss = 0
    # 遍历数据集中的每一条样本,并且计算每条样本的损失,加到loss身上得到整体的数据集损失
    for x_i, y_i in zip(X, y):
        # 这是计算一条样本的y_predict,即概率
        p = sigmoid(x_i, w1, w2)
        loss += -1*y_i*np.log(p)-(1-y_i)*np.log(1-p)
    return loss

# 6、参数w1和w2取值空间
w1_space = np.linspace(w1-2, w1+2, 100)
w2_space = np.linspace(w2-2, w2+2, 100)
loss1_ = np.array([loss_function(X, y, i, w2) for i in w1_space])
loss2_ = np.array([loss_function(X, y, w1, i) for i in w2_space])

# 7、数据可视化
fig1 = plt.figure(figsize=(12, 9))
plt.subplot(2, 2, 1)
plt.plot(w1_space, loss1_)

plt.subplot(2, 2, 2)
plt.plot(w2_space, loss2_)

plt.subplot(2, 2, 3)
w1_grid, w2_grid = np.meshgrid(w1_space, w2_space)
loss_grid = loss_function(X, y, w1_grid, w2_grid)
plt.contour(w1_grid, w2_grid, loss_grid,20)

plt.subplot(2, 2, 4)
plt.contourf(w1_grid, w2_grid, loss_grid,20)
plt.savefig('./图片/4-损失函数可视化.png',dpi = 200)

# 8、3D立体可视化
fig2 = plt.figure(figsize=(12,6))
ax = Axes3D(fig2)
ax.plot_surface(w1_grid, w2_grid, loss_grid,cmap = 'viridis')
plt.xlabel('w1',fontsize = 20)
plt.ylabel('w2',fontsize = 20)
ax.view_init(30,-30)
plt.savefig('./图片/5-损失函数可视化.png',dpi = 200)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66

image.png

image.png

3、逻辑回归迭代公式

3.1、函数特性

  逻辑回归参数更新规则和,线性回归一模一样!

image.png

  • α \alpha α 表示学习率

逻辑回归函数:

image.png

  • z = θ T x z = \theta^Tx z=θTx

逻辑回归函数求导时有一个特性,这个特性将在下面的推导中用到,这个特性为:

image.png

回到逻辑回归损失函数求导:

J ( θ ) = − ∑ i = 1 n ( y ( i ) ln ⁡ ( h θ ( x i ) ) + ( 1 − y ( i ) ) ln ⁡ ( 1 − h θ ( x ( i ) ) ) ) J(\theta) = -\sum\limits_{i = 1}^n(y^{(i)}\ln(h_{\theta}(x^{i})) + (1-y^{(i)})\ln(1-h_{\theta}(x^{(i)}))) J(θ)=−i=1∑n​(y(i)ln(hθ​(xi))+(1−y(i))ln(1−hθ​(x(i))))

3.2、求导过程

∂ ∂ θ j J ( θ ) = − ∑ i = 1 n ( y ( i ) 1 h θ ( x ( i ) ) ∂ ∂ θ j h θ ( x i ) + ( 1 − y ( i ) ) 1 1 − h θ ( x ( i ) ) ∂ ∂ θ j ( 1 − h θ ( x ( i ) ) ) ) = − ∑ i = 1 n ( y ( i ) 1 h θ ( x ( i ) ) ∂ ∂ θ j h θ ( x ( i ) ) − ( 1 − y ( i ) ) 1 1 − h θ ( x ( i ) ) ∂ ∂ θ j h θ ( x ( i ) ) ) = − ∑ i = 1 n ( y ( i ) 1 h θ ( x ( i ) ) − ( 1 − y ( i ) ) 1 1 − h θ ( x ( i ) ) ) ∂ ∂ θ j h θ ( x ( i ) ) = − ∑ i = 1 n ( y ( i ) 1 h θ ( x ( i ) ) − ( 1 − y ( i ) ) 1 1 − h θ ( x ( i ) ) ) h θ ( x ( i ) ) ( 1 − h θ ( x ( i ) ) ) ∂ ∂ θ j θ T x = − ∑ i = 1 n ( y ( i ) ( 1 − h θ ( x ( i ) ) ) − ( 1 − y ( i ) ) h θ ( x ( i ) ) ) ∂ ∂ θ j θ T x = − ∑ i = 1 n ( y ( i ) − h θ ( x ( i ) ) ) ∂ ∂ θ j θ T x = ∑ i = 1 n ( h θ ( x ( i ) ) − y ( i ) ) x j ( i ) ∂∂θjJ(θ)=−n∑i=1(y(i)1hθ(x(i))∂∂θjhθ(xi)+(1−y(i))11−hθ(x(i))∂∂θj(1−hθ(x(i))))=−n∑i=1(y(i)1hθ(x(i))∂∂θjhθ(x(i))−(1−y(i))11−hθ(x(i))∂∂θjhθ(x(i)))=−n∑i=1(y(i)1hθ(x(i))−(1−y(i))11−hθ(x(i)))∂∂θjhθ(x(i))=−n∑i=1(y(i)1hθ(x(i))−(1−y(i))11−hθ(x(i)))hθ(x(i))(1−hθ(x(i)))∂∂θjθTx=−n∑i=1(y(i)(1−hθ(x(i)))−(1−y(i))hθ(x(i)))∂∂θjθTx=−n∑i=1(y(i)−hθ(x(i)))∂∂θjθTx=n∑i=1(hθ(x(i))−y(i))x(i)j

∂θj​∂​J(θ)​=−i=1∑n​(y(i)hθ​(x(i))1​∂θj​​∂​hθ​(xi)+(1−y(i))1−hθ​(x(i))1​∂θj​​∂​(1−hθ​(x(i))))=−i=1∑n​(y(i)hθ​(x(i))1​∂θj​​∂​hθ​(x(i))−(1−y(i))1−hθ​(x(i))1​∂θj​​∂​hθ​(x(i)))=−i=1∑n​(y(i)hθ​(x(i))1​−(1−y(i))1−hθ​(x(i))1​)∂θj​​∂​hθ​(x(i))=−i=1∑n​(y(i)hθ​(x(i))1​−(1−y(i))1−hθ​(x(i))1​)hθ​(x(i))(1−hθ​(x(i)))∂θj​​∂​θTx=−i=1∑n​(y(i)(1−hθ​(x(i)))−(1−y(i))hθ​(x(i)))∂θj​​∂​θTx=−i=1∑n​(y(i)−hθ​(x(i)))∂θj​​∂​θTx=i=1∑n​(hθ​(x(i))−y(i))xj(i)​​

求导最终的公式:

image.png

这里我们发现导函数的形式和多元线性回归一样~

逻辑回归参数迭代更新公式:

image.png

3.3、代码实战

import numpy as np
from sklearn import datasets
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split

# 1、数据加载
iris = datasets.load_iris()

# 2、数据提取与筛选
X = iris['data']
y = iris['target']
cond = y != 2
X = X[cond]
y = y[cond]

# 3、数据拆分
X_train,X_test,y_train,y_test = train_test_split(X,y)

# 4、模型训练
lr = LogisticRegression()
lr.fit(X_train, y_train)

# 5、模型预测
y_predict = lr.predict(X_test)
print('测试数据保留类别是:',y_test)
print('测试数据算法预测类别是:',y_predict)
print('测试数据算法预测概率是:\n',lr.predict_proba(X_test))
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27

结论:

  • 通过数据提取与筛选,创建二分类问题
  • 类别的划分,通过概率比较大小完成了
# 线性回归方程
b = lr.intercept_
w = lr.coef_

# 逻辑回归函数
def sigmoid(z):
    return 1/(1 + np.exp(-z))

# y = 1 概率
z = X_test.dot(w.T) + b
p_1 = sigmoid(z)

# y = 0 概率
p_0 = 1 - p_1

# 最终结果
p = np.concatenate([p_0,p_1],axis = 1)
p
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

结论:

  • 线性方程,对应方程 z z z
  • sigmoid函数,将线性方程转变为概率
  • 自己求解概率和直接使用LogisticRegression结果一样,可知计算流程正确

4、逻辑回归做多分类

4.1、One-Vs-Rest思想

  在上面,我们主要使用逻辑回归解决二分类的问题,那对于多分类的问题,也可以用逻辑回归来解决!

多分类问题:

  • 将邮件分为不同类别/标签:工作(y=1),朋友(y=2),家庭(y=3),爱好(y=4)
  • 天气分类:晴天(y=1),多云天(y=2),下雨天(y=3),下雪天(y=4)
  • 医学图示:没生病(y=1),感冒(y=2),流感(y=3)
  • ……

上面都是多分类问题。

假设我们要解决一个分类问题,该分类问题有三个类别,分别用△,□ 和 × 表示,每个实例有两个属性,如果把属性 1 作为 X 轴,属性 2 作为 Y 轴,训练集的分布可以表示为下图:

image.png

  One-Vs-Rest(ovr)的思想是把一个多分类的问题变成多个二分类的问题。转变的思路就如同方法名称描述的那样,选择其中一个类别为正类(Positive),使其他所有类别为负类(Negative)。比如第一步,我们可以将 △所代表的实例全部视为正类,其他实例全部视为负类,得到的分类器如图:

image.png

同理我们把 × 视为正类,其他视为负类,可以得到第二个分类器:

image.png

最后,第三个分类器是把 □ 视为正类,其余视为负类:

image.png

  对于一个三分类问题,我们最终得到 3 个二元分类器。在预测阶段,每个分类器可以根据测试样本,得到当前类别的概率。即 P(y = i | x; θ),i = 1, 2, 3。选择计算结果最高的分类器,其所对应类别就可以作为预测结果。

One-Vs-Rest 作为一种常用的二分类拓展方法,其优缺点也十分明显:

  • 优点:普适性还比较广,可以应用于能输出值或者概率的分类器,同时效率相对较好,有多少个类别就训练多少个分类器。
  • 缺点:很容易造成训练集样本数量的不平衡(Unbalance),尤其在类别较多的情况下,经常容易出现正类样本的数量远远不及负类样本的数量,这样就会造成分类器的偏向性。

4.2、代码实战

import numpy as np
from sklearn import datasets
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split

# 1、数据加载
iris = datasets.load_iris()

# 2、数据提取
X = iris['data']
y = iris['target']

# 3、数据拆分
X_train,X_test,y_train,y_test = train_test_split(X,y)
# 4、模型训练
lr = LogisticRegression(multi_class = 'ovr')
lr.fit(X_train, y_train)
# 5、模型预测
y_predict = lr.predict(X_test)
print('测试数据保留类别是:',y_test)
print('测试数据算法预测类别是:',y_predict)
print('测试数据算法预测概率是:\n',lr.predict_proba(X_test))
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22

结论:

  • 通过数据提取,创建三分类问题
  • 类别的划分,通过概率比较大小完成了
# 线性回归方程,3个方程
b = lr.intercept_
w = lr.coef_
# 逻辑回归函数
def sigmoid(z):
    return 1/(1 + np.exp(-z))

# 计算三个方程的概率
z = X_test.dot(w.T) + b
p = sigmoid(z)

# 标准化处理,概率求和为1
p = p/p.sum(axis = 1).reshape(-1,1)
p
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

结论:

  • 线性方程,对应方程 z z z ,此时对应三个方程
  • sigmoid函数,将线性方程转变为概率,并进行标准化处理
  • 自己求解概率和直接使用LogisticRegression结果一样

5、逻辑斯蒂回归-多分类

5.1、Softmax函数

多分类情况下,这个模型被应用到y = {1, 2, …, k}就称作Softmax回归,是逻辑回归的推广。最终可以得到它的假设函数 h θ ( x ) h_{\theta}(x) hθ​(x):

$ h_{\theta}(x) = \left{ \begin{aligned} &\frac{e{\theta_1Tx}}{\sum\limits_{j = 1}ke{\theta_j^Tx}} , y = 1\ &\frac{e{\theta_2Tx}}{\sum\limits_{j = 1}ke{\theta_j^Tx}} , y = 2\ &…\&\frac{e{\theta_kTx}}{\sum\limits_{j = 1}ke{\theta_j^Tx}}, y = k \end{aligned} \right.$

举例说明:

image.png

5.3、代码实战

import numpy as np
from sklearn import datasets
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split

# 1、数据加载
iris = datasets.load_iris()

# 2、数据提取
X = iris['data']
y = iris['target']

# 3、数据拆分
X_train,X_test,y_train,y_test = train_test_split(X,y)

# 4、模型训练,使用multinomial分类器,表示多分类
lr = LogisticRegression(multi_class = 'multinomial',max_iter=5000)
lr.fit(X_train, y_train)
# 5、模型预测
y_predict = lr.predict(X_test)
print('测试数据保留类别是:',y_test)
print('测试数据算法预测类别是:',y_predict)
print('测试数据算法预测概率是:\n',lr.predict_proba(X_test))
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

结论:

  • 通过数据提取,创建三分类问题
  • 参数multi_class设置成multinomial表示多分类,使用交叉熵作为损失函数
  • 类别的划分,通过概率比较大小完成了
# 线性回归方程,3个方程
b = lr.intercept_
w = lr.coef_

# softmax函数
def softmax(z):
    return np.exp(z)/np.exp(z).sum(axis = 1).reshape(-1,1)

# 计算三个方程的概率
z = X_test.dot(w.T) + b
p = softmax(z)
p
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

结论:

  • 线性方程,对应方程 z z z ,多分类,此时对应三个方程
  • softmax函数,将线性方程转变为概率
  • 自己求解概率和直接使用LogisticRegression结果一样
注:本文转载自blog.csdn.net的道友老李的文章"https://blog.csdn.net/u014608435/article/details/144534609"。版权归原作者所有,此博客不拥有其著作权,亦不承担相应法律责任。如有侵权,请联系我们删除。
复制链接
复制链接
相关推荐
发表评论
登录后才能发表评论和回复 注册

/ 登录

评论记录:

未查询到任何数据!
回复评论:

分类栏目

后端 (14832) 前端 (14280) 移动开发 (3760) 编程语言 (3851) Java (3904) Python (3298) 人工智能 (10119) AIGC (2810) 大数据 (3499) 数据库 (3945) 数据结构与算法 (3757) 音视频 (2669) 云原生 (3145) 云平台 (2965) 前沿技术 (2993) 开源 (2160) 小程序 (2860) 运维 (2533) 服务器 (2698) 操作系统 (2325) 硬件开发 (2491) 嵌入式 (2955) 微软技术 (2769) 软件工程 (2056) 测试 (2865) 网络空间安全 (2948) 网络与通信 (2797) 用户体验设计 (2592) 学习和成长 (2593) 搜索 (2744) 开发工具 (7108) 游戏 (2829) HarmonyOS (2935) 区块链 (2782) 数学 (3112) 3C硬件 (2759) 资讯 (2909) Android (4709) iOS (1850) 代码人生 (3043) 阅读 (2841)

热门文章

101
推荐
关于我们 隐私政策 免责声明 联系我们
Copyright © 2020-2025 蚁人论坛 (iYenn.com) All Rights Reserved.
Scroll to Top