数学建模常用功能

目录

pandas读取数据

查看数据异常

提取指定列

将dataframe数据以numpy形式提取

数据划分

随机森林回归

GBDT回归

特征重要性可视化

 输出:

​ 绘制3D散点图

导入自定义包且.py文件修改时jupyter notebook自动同步

 dataframe删除某列中重复字段并删除对应行

LASSO回归

 绘制回归误差图

输出:

​ Adaboost回归

LightGBM回归 

XGBoost

绘制学习曲线

 输出:

绘制dataframe数据分布图

输出:

SVM分类

使用贝叶斯优化SVM

输出:

后续:

 绘制ROC曲线

输出:

 PCA降维

PCA降维可视化

输出:

求解极值

 输出解释:


pandas读取数据

import numpy as np
import pandas as pd
import random
Molecular_Descriptor = pd.read_excel('Molecular_Descriptor.xlsx',header=0)
Molecular_Descriptor.head()

查看数据异常

#判断数据NAN,INF
print(Molecular_Descriptor.isnull().any())
print(np.isnan(Molecular_Descriptor).any())
print(np.isfinite(Molecular_Descriptor).all())
print(np.isinf(Molecular_Descriptor).all())

提取指定列

Molecular_Descriptor.iloc[:,1:]

将dataframe数据以numpy形式提取

#  .values能够将dataframe中的数据以numpy的形式读取
X = Molecular_Descriptor.iloc[:,1:].values
Y = ERα_activity.iloc[:,2].values

数据划分

from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X,Y,test_size=0.2,random_state=0)#打印出原始样本集、训练集和测试集的数目
print("The length of original data X is:", X.shape[0])
print("The length of train Data is:", X_train.shape[0])
print("The length of test Data is:", X_test.shape[0])

随机森林回归

#导入随机森林库
from sklearn.ensemble import RandomForestRegressor
#导入sklearn度量库
from sklearn import metrics
#定义分类器
RFRegressor = RandomForestRegressor(n_estimators=200, random_state=0)
#模型训练
RFregressor.fit(X_train, y_train)
#模型预测
y_pred = RFregressor.predict(X_test)
#输出回归模型评价指标
print('Mean Absolute Error:', metrics.mean_absolute_error(y_test, y_pred))
print('Mean Squared Error:', metrics.mean_squared_error(y_test, y_pred))
print('Root Mean Squared Error:',np.sqrt(metrics.mean_squared_error(y_test, y_pred)))
#获得特征重要性
print(RFregressor.feature_importances_)

GBDT回归

from sklearn.ensemble import GradientBoostingRegressor
gbdt = GradientBoostingRegressor(random_state=0)
gbdt.fit(X_train, y_train)
y_pred = gbdt.predict(X_test)
print('Mean Absolute Error:', metrics.mean_absolute_error(y_test, y_pred))
print('Mean Squared Error:', metrics.mean_squared_error(y_test, y_pred))
print('Root Mean Squared Error:',np.sqrt(metrics.mean_squared_error(y_test, y_pred)))

特征重要性可视化

import matplotlib.pyplot as plt
plt.rcParams["font.sans-serif"] = ["SimHei"]   # 用来正常显示中文标签
plt.rcParams["axes.unicode_minus"] = False     # 解决负号"-"显示为方块的问题plt.rcParams['savefig.dpi'] = 150 #图片像素
plt.rcParams['figure.dpi'] = 150 #分辨率def plot_feature_importance(dataset, model_bst):\'''dataset : 数据集 dataframemodel_bst : 训练好的模型'''list_feature_name = list(dataset.columns[1:])list_feature_importance = list(model_bst.feature_importances_)dataframe_feature_importance = pd.DataFrame({'feature_name': list_feature_name, 'importance': list_feature_importance})dataframe_feature_importance20 = dataframe_feature_importance.sort_values(by='importance', ascending=False)[:20]print(dataframe_feature_importance20)x = range(len(dataframe_feature_importance20['feature_name']))plt.xticks(x, dataframe_feature_importance20['feature_name'], rotation=90, fontsize=8)plt.plot(x, dataframe_feature_importance20['importance'])plt.xlabel("分子描述符")plt.ylabel("重要程度")plt.title('重要程度可视化')plt.grid()#保存图像#plt.savefig('重要程度可视化.png')plt.show()return dataframe_feature_importance20['feature_name']if __name__ == '__main__':# 传入数据集dataframe , 模型对特征重要性进行评估gbdt_name = plot_feature_importance(Molecular_Descriptor,gbdt)

 输出:

 绘制3D散点图

z = list(range(0,729))
plt.rcParams['savefig.dpi'] = 150 #图片像素
plt.rcParams['figure.dpi'] = 150 #分辨率
plt.rcParams["font.sans-serif"] = ["SimHei"]   # 用来正常显示中文标签
plt.rcParams["axes.unicode_minus"] = False     # 解决负号"-"显示为方块的问题
from mpl_toolkits.mplot3d import Axes3D
x = regressor.feature_importances_
y = gbdt.feature_importances_
fig = plt.figure()
plt.subplots_adjust(right=0.8)
ax = fig.add_subplot(111, projection='3d')  # 创建一个三维的绘图工程
ax.scatter(x,y,z,c='b',s=5,alpha=1)
#设置x、y轴坐标刻标以及对应的标签
plt.xticks(fontsize=7)
plt.yticks(fontsize=7)
#统一设置x、y、z轴标签字体
plt.tick_params(labelsize=7)
#设置x、y、z标签
plt.xlabel("x轴",fontsize=8)
plt.ylabel("y轴",fontsize=8)
ax.set_zlabel('z轴',fontsize=8)
plt.savefig('这是三维图.png')

导入自定义包且.py文件修改时jupyter notebook自动同步

%load_ext autoreload
%autoreload 2

 dataframe删除某列中重复字段并删除对应行

dataframe_feature_importance = dataframe_feature_importance.drop_duplicates(subset=['feature_name'], keep='first', inplace=False)

LASSO回归

from sklearn import linear_modelmodel = linear_model.LassoCV()
model.fit(X_train, y_train)
y_predict = model.predict(X_test)
print('Mean Absolute Error:', metrics.mean_absolute_error(y_test, y_predict))
print('Mean Squared Error:', metrics.mean_squared_error(y_test, y_predict))
print('Root Mean Squared Error:',np.sqrt(metrics.mean_squared_error(y_test, y_predict)))

 绘制回归误差图

x_t = np.linspace(0, len(np.array(y_test)), len(np.array(y_test)))
plt.plot(x_t, y_test, marker='.', label="origin data")
# plt.xticks([])
plt.plot(x_t, y_predict, 'r-', marker='.', label="predict", lw=1)
plt.xlabel('样本编号')
plt.ylabel('预测结果')
# plt.figure(figsize=(10,100))
plt.legend(labels=['test','predict'],loc='best')
# plt.xticks([])
score = model.score(X_test,y_test)
print(score)
plt.text(140, 3, 'score=%.4f' % score, fontdict={'size': 15, 'color': 'red'})
plt.savefig('Lasso.png')

输出:

 Adaboost回归

from sklearn.ensemble import AdaBoostClassifier
clf = AdaBoostRegressor(DecisionTreeRegressor(max_depth=3),n_estimators=5000, random_state=123)
clf.fit(X_train,y_train)
y_predict = clf.predict(X_test)
print('Mean Absolute Error:', metrics.mean_absolute_error(y_test, y_predict))
print('Mean Squared Error:', metrics.mean_squared_error(y_test, y_predict))
print('Root Mean Squared Error:',np.sqrt(metrics.mean_squared_error(y_test, y_predict)))

LightGBM回归 

import lightgbm as lgbclf = lgb.LGBMRegressor(
boosting_type='gbdt',
random_state=2019,
objective='regression')
# 训练模型
clf.fit(X=X_train, y=y_train, eval_metric='MSE', verbose=50)
y_predict = clf.predict(X_test)
print('Mean Absolute Error:', metrics.mean_absolute_error(y_test, y_predict))
print('Mean Squared Error:', metrics.mean_squared_error(y_test, y_predict))
print('Root Mean Squared Error:',np.sqrt(metrics.mean_squared_error(y_test, y_predict)))

XGBoost

import xgboost as xgb
clf = xgb.XGBRegressor(max_depth=5, learning_rate=0.1, n_estimators=5000, silent=False, objective='reg:gamma')
# 训练模型
clf.fit(X=X_train, y=y_train)
y_predict = clf.predict(X_test)
print('Mean Absolute Error:', metrics.mean_absolute_error(y_test, y_predict))
print('Mean Squared Error:', metrics.mean_squared_error(y_test, y_predict))
print('Root Mean Squared Error:',np.sqrt(metrics.mean_squared_error(y_test, y_predict)))

绘制学习曲线

from sklearn.model_selection import learning_curve
from sklearn.model_selection import ShuffleSplit
def plot_learning_curve(estimator, title, X, y, ylim=None, cv=None,n_jobs=1, train_sizes=np.linspace(.1, 1.0, 5)):plt.figure()plt.title(title)if ylim is not None:plt.ylim(*ylim)plt.xlabel("Training examples")plt.ylabel("Score")train_sizes, train_scores, test_scores = learning_curve(estimator, X, y, cv=cv, n_jobs=n_jobs, train_sizes=train_sizes)train_scores_mean = np.mean(train_scores, axis=1)train_scores_std = np.std(train_scores, axis=1)test_scores_mean = np.mean(test_scores, axis=1)test_scores_std = np.std(test_scores, axis=1)plt.grid()plt.fill_between(train_sizes, train_scores_mean - train_scores_std,train_scores_mean + train_scores_std, alpha=0.1,color="r")plt.fill_between(train_sizes, test_scores_mean - test_scores_std,test_scores_mean + test_scores_std, alpha=0.1, color="g")plt.plot(train_sizes, train_scores_mean, 'o-', color="r",label="Training score")plt.plot(train_sizes, test_scores_mean, 'o-', color="g",label="Cross-validation score")plt.legend(loc="best")return plt
if __name__ == '__main__':title = "Learning Curves"# Cross validation with 100 iterations to get smoother mean test and train# score curves, each time with 20% data randomly selected as a validation set.cv = ShuffleSplit(n_splits=10, test_size=0.2, random_state=0)estimator =lgb.LGBMRegressor(learning_rate=0.001,max_depth=-1,n_estimators=10000,boosting_type='gbdt',random_state=2019,objective='regression',)#模型 图像标题 数据 标签 K折p = plot_learning_curve(estimator, title, XX, YY, cv=cv, n_jobs=4)p.savefig('LearnCurves.png')

 输出:

绘制dataframe数据分布图

#
name = ['gmin', 'MDEC-22', 'minaaN', 'maxHBint10', 'minHBint10', 'maxdO','C2SP1', 'BCUTw-1h', 'BCUTp-1l', 'MDEN-33', 'VC-4', 'nAtomLAC','SHBint10', 'minHBint4', 'C2SP2', 'MDEC-24', 'hmax', 'SHBint9','fragC', 'LipinskiFailures']
# 提取数据指定列
t = Molecular_Descriptor[name]
#数据归一化
t = (t-t.min())/(t.max()-t.min())t.plot(alpha=0.8)
#横向拉长x轴
N=100
plt.legend(loc=2, bbox_to_anchor=(1.05,1.0),borderaxespad= 0)
# change x internal size
plt.gca().margins(x=0)
plt.gcf().canvas.draw()
tl = plt.gca().get_xticklabels()
# maxsize = max([t.get_window_extent().width for t in tl])
maxsize = 30
m = 0.2  # inch margin
s = maxsize / plt.gcf().dpi * N + 2 * m
margin = m / plt.gcf().get_size_inches()[0]plt.gcf().subplots_adjust(left=margin, right=1. - margin)
plt.gcf().set_size_inches(s, plt.gcf().get_size_inches()[1])
#合理布局
plt.tight_layout()
plt.savefig("数据分布.png")

输出:

SVM分类

from sklearn.svm import SVC
from sklearn import metrics
#定义SVM分类器
clf = SVC()
#模型训练
clf.fit(X_train,y_train)
#模型预测
y_pred = clf.predict(X_test)
#模型评估
print('准确率=%.4f'%metrics.accuracy_score(y_test,y_pred))
print('召回率=%.4f'%metrics.recall_score(y_test, y_pred, pos_label=1))
print('精准率=%.4f'%metrics.precision_score(y_test, y_pred, pos_label=1) )
print('F1=%.4f'%metrics.f1_score(y_test, y_pred, average='weighted',pos_label=1)  )

使用贝叶斯优化SVM

from sklearn.datasets import make_classification
from sklearn.model_selection import cross_val_score
from sklearn.ensemble import RandomForestClassifier as RFC
from sklearn.svm import SVCfrom bayes_opt import BayesianOptimization
from bayes_opt.util import Coloursdef svc_cv(C, gamma, X_train, y_train):"""SVC cross validation.This function will instantiate a SVC classifier with parameters C andgamma. Combined with data and targets this will in turn be used to performcross validation. The result of cross validation is returned.Our goal is to find combinations of C and gamma that maximizes the roc_aucmetric."""#设置分类器estimator = SVC(C=C, gamma=gamma, random_state=2)#交叉验证cval = cross_val_score(estimator, X_train, y_train, scoring='roc_auc', cv=4)return cval.mean()
def optimize_svc(X_train, y_train):"""Apply Bayesian Optimization to SVC parameters."""def svc_crossval(expC, expGamma):"""Wrapper of SVC cross validation.Notice how we transform between regular and log scale. While thisis not technically necessary, it greatly improves the performanceof the optimizer."""C = 10 ** expCgamma = 10 ** expGammareturn svc_cv(C=C, gamma=gamma, X_train=X_train, y_train=y_train)optimizer = BayesianOptimization(f=svc_crossval,#设置超参范围pbounds={"expC": (-3, 4), "expGamma": (-4, -1)},random_state=1234,verbose=2)optimizer.maximize(n_iter=20)print("Final result:", optimizer.max)
if __name__ == '__main__':#开始搜索超参optimize_svc(X_train, y_train)

输出:

    |   iter    |  target   |   expC    | expGamma  |
-------------------------------------------------
|  1        |  0.8239   | -2.042    | -2.134    |
|  2        |  0.8973   | -0.8114   | -1.644    |
|  3        |  0.8791   |  0.8999   | -3.182    |
|  4        |  0.8635   | -1.618    | -1.594    |
|  5        |  0.9104   |  1.791    | -1.372    |
|  6        |  0.9213   |  1.099    | -1.502    |
|  7        |  0.9165   |  0.2084   | -1.0      |
|  8        |  0.8727   |  2.0      | -4.0      |
|  9        |  0.9117   |  1.131    | -1.0      |
|  10       |  0.9241   |  0.3228   | -1.88     |
|  11       |  0.9346   |  2.0      | -2.322    |
|  12       |  0.9335   |  1.429    | -2.239    |
|  13       |  0.7927   | -3.0      | -4.0      |
|  14       |  0.927    |  2.0      | -2.715    |
|  15       |  0.9354   |  1.742    | -2.249    |
=================================================
Final result: {'target': 0.9353828944247531, 'params': {'expC': 1.7417094883510253, 'expGamma': -2.248984327197053}}

 iter为迭代次数,target为模型所获得的分数(越高越好),expC、expGamma为需要贝叶斯优化的参数

后续:

如何使用?根据搜索到的超参数'params': {'expC': 1.7417094883510253, 'expGamma': -2.248984327197053}重新训练分类器即可

clf = SVC(C=10**1.74,gamma=10**(-2.248))
clf.fit(X_train,y_train)
y_pred = clf.predict(X_test)

 绘制ROC曲线

import matplotlib.pyplot as plt
from sklearn.metrics import roc_curve, auc
import matplotlib.pyplot as pltplt.rcParams['savefig.dpi'] = 150 #图片像素
plt.rcParams['figure.dpi'] = 150 #分辨率
#传入真实值和预测值
fpr, tpr, thersholds = roc_curve(y_test, y_pred, pos_label=1)for i, value in enumerate(thersholds):print("%f %f %f" % (fpr[i], tpr[i], value))
roc_auc = auc(fpr, tpr)plt.plot(fpr, tpr, 'k--', label='ROC (area = {0:.2f})'.format(roc_auc), lw=2,c='r')plt.xlim([-0.05, 1.05])  # 设置x、y轴的上下限,以免和边缘重合,更好的观察图像的整体
plt.ylim([-0.05, 1.05])
plt.xlabel('False Positive Rate')
plt.ylabel('True Positive Rate')  # 可以使用中文,但需要导入一些库即字体
plt.title('ROC Curve')
plt.legend(loc="lower right")
plt.savefig('Caco-2分类ROC曲线.png')
plt.show()
print(roc_auc)

输出:

 PCA降维

from sklearn.decomposition import PCA
#定义PCA分类器,n_components为需要降到的维数
pca = PCA(n_components=50)
# X.shape = (1974,729)
#数据转换 (1974,729) -> (1974,50)
new_X = pca.fit_transform(X)
#new_X.shape = (1974,50)

PCA降维可视化

# plt.rcParams['savefig.dpi'] = 150 #图片像素
# plt.rcParams['figure.dpi'] = 150 #分辨率
plt.rcParams["font.sans-serif"] = ["SimHei"]   # 用来正常显示中文标签
plt.rcParams["axes.unicode_minus"] = False     # 解决负号"-"显示为方块的问题
from mpl_toolkits.mplot3d import Axes3D
# 降到3维
pca = PCA(n_components=3)
pca_test = pca.fit_transform(X_test)
pca_test.shape
fig = plt.figure()
plt.subplots_adjust(right=0.8)
ax = fig.add_subplot(111, projection='3d')  # 创建一个三维的绘图工程
y_pred==0
#分离0 1
label0 = pca_test[y_pred==0]
label1 = pca_test[y_pred==1]
# label0
ax.scatter(label0[:,0],label0[:,1],label0[:,2],label=0,alpha=0.8)
ax.scatter(label1[:,0],label1[:,1],label1[:,2],label=1,alpha=0.8)
plt.legend()
plt.savefig('Caco2分类三维图像.png')

输出:

求解极值

# coding=utf-8
from scipy.optimize import minimize
import numpy as np#设置参数范围/约束条件
l_x_min = [0,1,2,3]
l_x_max = [4,5,6,7]
def fun():#minimize只能求极小值,如果需要极大值,则在函数前添加负号,本案例为求极大值v=lambda x: -1*(coef[0]*x[0]+coef[1]*x[1]+coef[2]*x[2]+coef[3]*x[3]+intercept)return v
def con():# 约束条件 分为eq 和ineq#eq表示 函数结果等于0 ; ineq 表示 表达式大于等于0  #{'type': 'ineq', 'fun': lambda x: x[0] - l_x_min[0]}表示 x[0] - l_x_min[0]>=0cons = ({'type': 'ineq', 'fun': lambda x: x[0] - l_x_min[0]},\{'type': 'ineq', 'fun': lambda x: -x[0] + l_x_max[0]},\{'type': 'ineq', 'fun': lambda x: x[1] - l_x_min[1]},\{'type': 'ineq', 'fun': lambda x: -x[1] + l_x_max[1]},\{'type': 'ineq', 'fun': lambda x: x[2] - l_x_min[2]},\{'type': 'ineq', 'fun': lambda x: -x[2] + l_x_max[2]},\{'type': 'ineq', 'fun': lambda x: x[3] - l_x_min[3]},\{'type': 'ineq', 'fun': lambda x: -x[3] + l_x_max[3]})return consif __name__ == "__main__":#定义常量值cons = con()#设置初始猜测值  x0 = np.random.rand(4)res = minimize(fun(), x0, method='SLSQP',constraints=cons)print(res.fun)print(res.success)print(res.x)

输出解释:

#举例:
[output]:
-1114.4862509294192  # 由于在开始时给函数添加符号,最后还需要*-1,因此极大值为1114.4862509294192
True #成功找到极值
[-1.90754988e-10  6.36254335e+00 -1.25920646e-10  1.90480000e-01] #该极值对应x解

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/10250.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

什么是数学建模?如何在数学建模中拿奖?通过建模学到了啥?

个人大学四年经验分享之数学建模 无论什么水平,看过此文章后必有收获!一、数学建模到底是什么?1,数学模型2,数学建模 二、如何在数学建模中拿奖(三个方面)1.组队2,知识准备3,比赛过程…

【2023 年第十三届 MathorCup 高校数学建模挑战赛】A 题 量子计算机在信用评分卡组合优化中的应用 详细建模过程解析及代码实现

相关信息 (1)建模思路 【2023 年第十三届 MathorCup 高校数学建模挑战赛】A 题 量子计算机在信用评分卡组合优化中的应用 详细建模过程解析及代码实现 【2023 年第十三届 MathorCup 高校数学建模挑战赛】 B 题 城市轨道交通列车时刻表优化问题 详细建…

数学建模【三款超实用建模小软件!】

最近听到很多小伙伴的反馈,说学编程好麻烦,有没有一些简单的软件可以实现数学建模的相关模型,今天“科研交流”工作室为大家带来了几款实用的数学建模小软件,可以实现基础的评价、预测、网络分析等功能,在比赛时能缩短…

还在为数学建模的事发愁?带你一起来看看数模竞赛中必备的经典算法

前言 数学建模比赛是本科生和研究生阶段最重要的比赛之一,包括全国大学生数学建模竞赛(俗称“国赛”)和美国大学生数学建模竞赛(俗称“美赛”)。在这些比赛中取得好成绩,不仅有助于保研、有助于找工作&…

一份简短又全面的数学建模技能图谱:常用模型算法总结

声明一下:下述内容的多数链接出自一本教材: 司守奎《数学建模算法与应用》 第二版的PDF版本,改成转载需要给出原创链接;实属无意冒犯。 【pdf版教材链接-百度网盘: https://pan.baidu.com/s/1TEYSW5ZImQU4Sy7Om2rxgA …

美国大学生数学建模竞赛选题、经验以及准备材料

一、美赛题目选择: A连续 B离散 C数据见解 D运筹学/网络科学(优化/规划类) E环境科学(评价类) F政策 1.C数据见解,没有擅长统计数据处理的人在的话,可以考虑避开大数据量的题目&am…

2022mathorcup数学建模大数据竞赛选题建议及初步思路来啦!

大家好呀,mathorcup大数据赛今天下午六点开赛了,我先给大家带来一个初步的选题建议及思路哈,需要后续完整成品的可以直接点击本文章最下面的卡片哈。 OK废话不多说,本次mathorcup大数据赛时间跨度是很长的,一共一个月…

2022年第三届MathorCup高校数学建模挑战赛——大数据竞赛 赛道B 北京移动用户体验影响因素研究 问题二建模方案及代码实现详解

2022年第三届MathorCup高校数学建模挑战赛——大数据竞赛 赛道B 北京移动用户体验影响因素研究 建模方案及代码实现 更新进展 2022年12月21日 12:20 发布问题一、二思路及问题一的python代码实现 2022年12月22日 15:00 发布问题二python实现的代码 更新完毕 相关链接 &…

2023年MathorCup数学建模赛题浅析

MathorCup俗称妈杯,是除了美赛国赛外参赛人数首屈一指的比赛,而我们的妈杯今天也如期开赛。今年的妈杯难度,至少在我看来应该是2023年截至目前来讲最难的一场比赛。问题的设置、背景的选取等各个方面都吐露着我要难死你们的想法。难度是恒定的…

2021MathorCup高校数学建模挑战赛——大数据竞赛的一些想法总结

文章目录 1 前言2 数据预处理2.1 数据文件的分割2.2 数据文件的去重 3 问题一的求解3.1 数据提取3.2 去除数据异常值3.3 数据格式化3.4 数据集的插值3.5 ARIMA模型进行短期预测 4 问题二的求解4.1 人工神经网络(ANN)4.2 深度神经网络(DNN&…

2023MathorCup数学建模比赛的思路汇总帖

更新时间【4.13 19:45】ABCD均已更新,选题指导已更新,速看!后续会出各题详细思路及代码! 这里是小云的2023MathorCup数学建模比赛的思路汇总帖,比赛开始后将实时更新~ 竞赛共4道题目(A题、B题…

参加大学生数学建模大赛,Matlab和Python到底哪个更好?

前言 后台的小伙伴经常会问编程过程中,MATLAB和Python到底哪个更好?这个问题一直困惑很多同学,今天小编来给大家从实用型来综合分析一下: 首先从两者各自的应用做个对比。 一、python的优势 Python相对于Matlab最大的优势&…

chatgpt赋能python:Python和数学建模:如何参与数学建模比赛

Python和数学建模:如何参与数学建模比赛 介绍 数学建模比赛通常是学术界和工业界一起组织的比赛,旨在让学生掌握实际问题的建模方法以及如何处理数据、分析和解决实际问题。Python是一个流行的编程语言,广泛应用于数据科学和数学建模领域&a…

2023Mathorcup数学建模(妈妈杯)思路分析与选题建议

选题建议 建议根据自己的专业背景和兴趣,选择适合自己的题目进行作答。根据比赛规定的难度和开放度,我们推荐如下: A题 量子计算机在信用评分卡组合优化中的应用:建议统计学、数学等相关专业同学选择,难度较易&#x…

ChatGPT在Web3.0的应用:如何探索去中心化AI的新领域?

随着Web3.0技术的不断发展,去中心化应用已经成为了互联网领域的热点之一。作为人工智能领域的新星,ChatGPT的出现,进一步推动了去中心化应用的发展。在Web3.0应用中,ChatGPT可以被用于许多新领域,为用户提供更加智能、…

人类怎么管好以 ChatGPT 为代表的 AI ?

这个问题很有意思。 当前的 ChatGPT 模型并没有真正的意识,它只是根据训练数据和算法生成回答。在当前的技术水平下,人工智能不具备自我意识和自我决策的能力,也无法脱离其预先设定的目标进行行动。 然而,随着人工智能技术的发展…

解决局域网下安装python和pycharm的两个问题

第一个问题,无法启动此程序,因为计算机中丢失api-ms-win-core-path-11-1-0.dll,实际是因为win10和win7系统不兼容出现的问题。解决方式,把api-ms-win-core-path-l1-1-0.dll复制到一个文件夹中C:\Windows\System32。下载地址如下。…

腾讯首次投资大模型!Minimax被曝完成2.5亿美元新融资

衡宇 发自 凹非寺量子位 | 公众号 QbitAI 大模型正在垒起新的投资掘金热潮。 最新消息,大模型赛道创业公司MiniMax,又完成了新一轮2.5亿美元融资,整体估值超过12亿美元。 量子位进一步获悉,MiniMax这轮投资,还成功吸引…

答题老翻车,网友为360GPT起名“红孩儿”;暴雪曾要求网易支付5亿美元才能续约;暂停GPT-5研发呼吁引激战 | EA周报...

EA周报 2023年3月31日 每个星期1分钟,元宝带你喝一杯IT人的浓缩咖啡,了解天下事、掌握IT核心技术。 周报看点 1、曝暴雪CEO“狮子大开口”,曾要求网易支付 5 亿美元才能续约 2、暂停 GPT-5 研发呼吁引激战,吴恩达田渊栋反对千人联…

聚观早报|网易开放暴雪游戏退款申请通道;鱼跃医疗回应被罚270万

今日要闻:网易开放暴雪游戏退款申请通道;谷歌 ChatGPT 竞品搜索设计将迎来大改;“鱼跃医疗”回应被罚270万元;大众考虑在加拿大建设新的电池工厂;微软将把ChatGPT整合到必应搜索中 网易开放暴雪游戏退款申请通道 2 月…