版本1.1#
有关该版本主要亮点的简短描述,请参阅 scikit-learn 1.1的发布亮点 .
换象传说
Major Feature 一些你以前做不到的大事。
Feature 一些你以前做不到的事情。
Efficiency 现有功能现在可能不需要那么多的计算或内存。
Enhancement 一个杂七杂八的小改进。
Fix 以前没有按照记录或合理预期发挥作用的事情现在应该起作用了。
API Change 您需要更改您的代码才能在将来产生相同的效果;或者将来将删除某个功能。
版本1.1.3#
October 2022
此错误修复版本仅包括与最新SciPy版本>= 1.9.2兼容的修复。值得注意的变化包括:
Fix 包括
msvcp140.dll在scikit-learn轮子中,因为它已在最新的SciPy轮子中被删除。 #24631 通过 Chiara Marmo .Enhancement 为Python 3.11创建轮子。 #24446 通过 Chiara Marmo .
其他错误修复将在下一个1.2版本中提供,该版本将在未来几周内发布。
请注意,此版本已放弃对Windows上32位Python的支持。这是因为SciPy 1.9.2也放弃了对该平台的支持。建议Windows用户安装64位版本的Python。
版本1.1.2#
August 2022
更改型号#
以下估计量和函数在与相同的数据和参数进行匹配时,可能会产生与之前版本不同的模型。这种情况通常是由于建模逻辑(错误修复或增强)或随机抽样过程的变化而发生的。
Fix
manifold.TSNE现在抛出一个ValueError适合时perplexity>=n_samples以确保算法的数学正确性。 #10805 通过 Mathias Andersen 和 #23471 通过 Meekail Zain .
Changelog#
Fix 对于具有无效参数的元估计器显示默认的HTML表示形式。 #24015 通过 Thomas Fan .
Fix 为1.1中后台已更改的估计器和函数添加对F连续数组的支持。 #23990 通过 Julien Jerphanion .
Fix 轮子现在可用于MacOS 10.9及更高版本。 #23833 通过 Thomas Fan .
sklearn.base#
Fix 的
get_params方法base.BaseEstimator类现在支持估计器type- 类型具有get_params法 #24017 通过 Henry Sorsky .
sklearn.cluster#
Fix 修复了中的一个错误
cluster.Birch如果数据集中存在重复项,则可能会在拆分节点时触发错误。 #23395 通过 Jérémie du Boisberranger .
sklearn.feature_selection#
Fix
feature_selection.SelectFromModel当估计器为以下两种时,默认为选择阈值1 e-5linear_model.ElasticNet或linear_model.ElasticNetCV与l1_ratio等于1或linear_model.LassoCV. #23636 通过 Hao Chun Chang .
sklearn.impute#
Fix
impute.SimpleImputer使用中看到的d类型fitfortransformwhen the dtype is object. #22063 by Thomas Fan .
sklearn.linear_model#
Fix 使用dype感知容差来验证gram矩阵(由用户传递或预先计算)。 #22059 通过 Malte S. Kurz .
Fix 修复了中的错误
linear_model.LogisticRegression与solver="newton-cg",fit_intercept=True, and a single feature. #23608 by Tom Dupre la Tour .
sklearn.manifold#
Fix
manifold.TSNE现在抛出一个ValueError适合时perplexity>=n_samples以确保算法的数学正确性。 #10805 通过 Mathias Andersen 和 #23471 通过 Meekail Zain .
sklearn.metrics#
Fix 修复的错误消息
metrics.coverage_error用于1D阵列输入。 #23548 通过 Hao Chun Chang .
sklearn.preprocessing#
Fix
preprocessing.OrdinalEncoder.inverse_transform正确处理以下用例:unknown_valueorencoded_missing_valueisnan. #24087 by Thomas Fan .
sklearn.tree#
Fix 修复了适应期间无效的内存访问错误
tree.DecisionTreeRegressor和tree.DecisionTreeClassifier. #23273 通过 Thomas Fan .
版本1.1.1#
May 2022
Changelog#
Enhancement 导入时的错误消息得到改善
model_selection.HalvingGridSearchCV,model_selection.HalvingRandomSearchCV,或者impute.IterativeImputer无需导入实验标志。 #23194 通过 Thomas Fan .Enhancement 在doc/www.example.com中添加了一个扩展,以自动生成处理NaN值的估计器列表。conf.py #23198 通过 Lise Kleiber , Zhehao Liu 和 Chiara Marmo .
sklearn.datasets#
Fix 避免暂停
datasets.fetch_openml通过不通过timeout争论, #23358 通过 Loïc Estève .
sklearn.decomposition#
Fix 避免虚假警告
decomposition.IncrementalPCA当n_samples == n_components. #23264 通过 Lucy Liu .
sklearn.feature_selection#
Fix 的
partial_fit方法feature_selection.SelectFromModel现在进行验证max_features和feature_names_in参数 #23299 通过 Long Bao .
sklearn.metrics#
Fix 修复
metrics.precision_recall_curve以100%召回率计算精确召回率。精确度-召回曲线现在显示与始终预测阳性类别的分类器对应的最后一个点:召回=100%,精确度=类别平衡。 #23214 通过 Stéphane Collot 和 Max Baak .
sklearn.preprocessing#
Fix
preprocessing.PolynomialFeatures与degree等于0将引发错误,include_bias设置为False,并在以下情况下输出单个常数数组include_bias设置为True。 #23370 通过 Zhehao Liu .
sklearn.tree#
sklearn.utils#
Fix
utils.class_weight.compute_sample_weight现在适用于稀疏y. #23115 通过 kernc .
版本1.1.0#
May 2022
最小依赖#
scikit-learn的1.1.0版本需要pPython 3.8+、numpy 1.17.3+和scipy 1.3.2+。可选的最小依赖项是matplotlib 3.1.2+。
更改型号#
以下估计量和函数在与相同的数据和参数进行匹配时,可能会产生与之前版本不同的模型。这种情况通常是由于建模逻辑(错误修复或增强)或随机抽样过程的变化而发生的。
Efficiency
cluster.KMeans现在默认为algorithm="lloyd"而不是algorithm="auto",相当于algorithm="elkan".劳埃德算法和埃尔坎算法收敛到相同的解,直到数字舍入误差,但一般来说劳埃德算法使用的内存要少得多,而且通常速度更快。Efficiency 拟合
tree.DecisionTreeClassifier,tree.DecisionTreeRegressor,ensemble.RandomForestClassifier,ensemble.RandomForestRegressor,ensemble.GradientBoostingClassifier,而且ensemble.GradientBoostingRegressor由于采用了新的排序算法来寻找最佳拆分,平均比之前的版本快15%。由于对具有绑定标准值的拆分的处理不同,模型可能会有所不同:旧的和新的排序算法都是不稳定的排序算法。 #22868 通过 Thomas Fan .Fix 特征量初始化
cluster.SpectralClustering和manifold.SpectralEmbedding现在使用高斯样本时'amg'或'lobpcg'解决者。此更改提高了求解器的数值稳定性,但可能会导致不同的模型。Fix
feature_selection.f_regression和feature_selection.r_regression现在默认返回有限分数,而不是np.nan和np.inf为了某个案子您可以使用force_finite=False如果你真的想得到非有限值并保持原有的行为。Fix Panda的DataFrames具有所有非字符串列(例如MultiIndex)在传递到Estimator时不再发出警告。估计器将继续忽略DataFrames中具有非字符串列的列名。为
feature_names_in_to be defined, columns must be all strings. #22410 by Thomas Fan .Fix
preprocessing.KBinsDiscretizer稍微改变了bin边缘的处理,这可能会导致相同数据的不同编码。Fix
calibration.calibration_curve稍微改变了箱边缘的处理,这可能会导致给定相同数据的输出曲线不同。Fix
discriminant_analysis.LinearDiscriminantAnalysis现在使用正确的方差缩放系数,这可能导致不同的模型行为。Fix
feature_selection.SelectFromModel.fit和feature_selection.SelectFromModel.partial_fit现在可以与prefit=True.estimators_将是一个深刻的副本estimator当prefit=True. #23271 通过 Guillaume Lemaitre .
Changelog#
Efficiency 用于减少密集float 64数据集成对距离的低级例程已被重构。以下函数和估计器现在受益于硬件可扩展性和加速方面的改进性能:
例如
sklearn.neighbors.NearestNeighbors.kneighbors和sklearn.neighbors.NearestNeighbors.radius_neighbors比以前笔记本电脑上的速度分别提高20倍和5倍。此外,这两种算法的实现现在适合具有多核的机器,使它们可用于由数百万个样本组成的数据集。
#21987 , #22064 , #22065 , #22288 和 #22320 通过 Julien Jerphanion .
Enhancement 当某些输入包含意外内容时,所有scikit-learn模型现在都会生成信息更多的错误消息
NaN或无限的价值。特别是,消息包含输入名称(“X”、“y”或“sample_weight”),如果出现意外,NaN价值在于X,错误消息建议潜在的解决方案。 #21219 通过 Olivier Grisel .Enhancement 现在,所有scikit-learn模型在设置无效超参数时都会生成信息量更大的错误消息
set_params. #21542 通过 Olivier Grisel .Enhancement 在HTML表示中删除随机唯一标识符。通过这一变化,只要单元以相同的顺序运行,jupyter笔记本就可以重复。 #23098 通过 Thomas Fan .
Fix 估算者
non_deterministic标签设置为True将跳过两者check_methods_sample_order_invariance和check_methods_subset_invariance试验. #22318 通过 Zhehao Liu .API Change 通过
loss参数更加一致。首选方法是将该值设置为"log_loss".旧选项名称仍然有效并生成相同的模型,但已被弃用并将在1.3版本中删除。为
ensemble.GradientBoostingClassifier,loss参数名称“diverance”已被弃用,改用新名称“log_loss”,该名称现在是默认名称。 #23036 通过 Christian Lorentzen .为
ensemble.HistGradientBoostingClassifier,loss参数名称“Auto”、“binary_crossentropy”和“category_crossentropy”已被废弃,转而采用新名称“log_loss”,该名称现在是默认名称。 #23040 通过 Christian Lorentzen .为
linear_model.SGDClassifier,loss参数名称“log”已被弃用,改用新名称“log_loss”。 #23046 通过 Christian Lorentzen .
API Change 现在默认情况下,Inspyter笔记本中启用了估计量的丰富html表示。可以通过设置停用
display='text'在sklearn.set_config. #22856 通过 Jérémie du Boisberranger .
sklearn.calibration#
Enhancement
calibration.calibration_curve接受参数pos_label指定正类标签。 #21032 通过 Guillaume Lemaitre .Enhancement
calibration.CalibratedClassifierCV.fit现在支持通过fit_params,它们被路由到base_estimator. #18170 通过 Benjamin Bossan .Enhancement
calibration.CalibrationDisplay接受参数pos_label将此信息添加到情节中。 #21038 通过 Guillaume Lemaitre .Fix
calibration.calibration_curve现在可以更一致地处理垃圾箱边缘。 #14975 通过 Andreas Müller 和 #22526 通过 Meekail Zain .API Change
calibration.calibration_curve的normalize参数现在已弃用,并将在1.3版中删除。建议使用适当的概率(即分类器的 predict_proba 正类)用于y_prob. #23095 通过 Jordan Silke .
sklearn.cluster#
Major Feature
cluster.BisectingKMeans引入二分K均值算法 #20031 通过 Michal Krawczyk , Tom Dupre la Tour 和 Jérémie du Boisberranger .Enhancement
cluster.SpectralClustering和cluster.spectral_clustering现在包括新的'cluster_qr'在嵌入空间中对样本进行集群的方法,作为现有的替代方案'kmeans'和'discrete'方法.看到cluster.spectral_clustering了解更多详细信息。 #21148 通过 Andrew Knyazev .Enhancement 添加 get_feature_names_out 到
cluster.Birch,cluster.FeatureAgglomeration,cluster.KMeans,cluster.MiniBatchKMeans. #22255 通过 Thomas Fan .Enhancement
cluster.SpectralClustering现在,当传递无效值时,n_clusters,n_init,gamma,n_neighbors,eigen_tol或degree. #21881 通过 Hugo Vassard .Enhancement
cluster.AffinityPropagation现在返回集群中心和标签(如果存在),即使模型尚未完全收敛。当返回这些潜在退化的集群中心和标签时,会显示新的警告消息。如果未构建集群中心,则集群中心将保持为空列表,标签设置为-1并显示原始警告消息。 #22217 通过 Meekail Zain .Efficiency 在
cluster.KMeans,默认algorithm现在"lloyd"这是完整的经典EM风格算法。两"auto"和"full"已被弃用,并将在1.3版中删除。他们现在是化名"lloyd".之前的默认值是"auto",它依赖于埃尔坎的算法。Lloyd的算法比Elkan的算法使用的内存更少,在许多数据集上速度更快,而且其结果相同,因此发生了变化。 #21735 通过 Aurélien Geron .Fix
cluster.KMeans的initparameter now properly supports array-like input and NumPy string scalars. #22154 by Thomas Fan .
sklearn.compose#
Fix
compose.ColumnTransformer现在删除验证错误__init__和set_params方法. #22537 通过 iofall 和 Arisa Y. .Fix get_feature_names_out 功能性
compose.ColumnTransformer当使用指定列时,已损坏slice.这是固定在 #22775 和 #22913 通过 randomgeek78 .
sklearn.covariance#
Fix
covariance.GraphicalLassoCV现在接受NumPy数组作为参数alphas. #22493 通过 Guillaume Lemaitre .
sklearn.cross_decomposition#
Enhancement 的
inverse_transform方法cross_decomposition.PLSRegression,cross_decomposition.PLSCanonical和cross_decomposition.CCA现在可以重建一个X目标当Y参数已给出。 #19680 通过 Robin Thibaut .Enhancement 添加 get_feature_names_out 致所有变压器
cross_decomposition模块:cross_decomposition.CCA,cross_decomposition.PLSSVD,cross_decomposition.PLSRegression,而且cross_decomposition.PLSCanonical. #22119 通过 Thomas Fan .Fix 的形状 coef_ 属性
cross_decomposition.CCA,cross_decomposition.PLSCanonical和cross_decomposition.PLSRegression将在1.3版本中更改,从(n_features, n_targets)到(n_targets, n_features),与其他线性模型一致,并使其与期望特定形状的界面一起工作coef_(例如feature_selection.RFE). #22016 通过 Guillaume Lemaitre .API Change 添加适合的属性
intercept_到cross_decomposition.PLSCanonical,cross_decomposition.PLSRegression,而且cross_decomposition.CCA.述的方法predict确实相当于Y = X @ coef_ + intercept_. #22015 通过 Guillaume Lemaitre .
sklearn.datasets#
Feature
datasets.load_files现在接受基于文件扩展名的忽略列表和允许列表。 #19747 通过 Tony Attalla 和 #22498 通过 Meekail Zain .Enhancement
datasets.make_swiss_roll现在支持可选的参数洞;当设置为True时,它返回swiss-hole数据集。 #21482 通过 Sebastian Pujalte .Enhancement
datasets.make_blobs在生成过程中不再复制数据,因此使用更少的内存。 #22412 通过 Zhehao Liu .Enhancement
datasets.load_diabetes现在接受参数scaled,以允许加载未缩放的数据。该数据集的缩放版本现在是根据未缩放的数据计算的,并且可以产生与之前版本略有不同的结果(在1 e-4绝对公差内)。 #16605 通过 Mandy Gu .Enhancement
datasets.fetch_openml现在有两个可选论点n_retries和delay.默认情况下,datasets.fetch_openml如果网络故障,将重新尝试3次,每次尝试之间会有延迟。 #21901 通过 Rileran .Fix
datasets.fetch_covtype现在是并发安全的:数据在移动到数据目录之前先下载到临时目录。 #23113 通过 Ilion Beyst .API Change
datasets.make_sparse_coded_signal现在接受参数data_transposed显式指定矩阵的形状X.默认行为True是返回转置矩阵X对应于(n_features, n_samples)形状默认值将更改为False在1.3版本中。 #21425 通过 Gabriel Stefanini Vicente .
sklearn.decomposition#
Major Feature 添加了新的估计器
decomposition.MiniBatchNMF.它是非负矩阵分解的一个更快但不太准确的版本,更适合大型数据集。 #16948 通过 Chiara Marmo , Patricio Cerda 和 Jérémie du Boisberranger .Enhancement
decomposition.dict_learning,decomposition.dict_learning_online和decomposition.sparse_encode保留d类型numpy.float32.decomposition.DictionaryLearning,decomposition.MiniBatchDictionaryLearning和decomposition.SparseCoder保留d类型numpy.float32. #22002 通过 Takeshi Oura .Enhancement
decomposition.PCA公开参数n_oversamples以调谐utils.extmath.randomized_svd并在特征数量较多时获得准确的结果。 #21109 通过 Smile .Enhancement 的
decomposition.MiniBatchDictionaryLearning和decomposition.dict_learning_online已经被重构,现在有一个基于字典或目标函数的小变化的停止标准,由新的max_iter,tol和max_no_improvement参数此外,它们的一些参数和属性已被废弃。的
n_iter两者的参数均已被弃用。使用max_iter而不是.的
iter_offset,return_inner_stats,inner_stats和return_n_iter参数decomposition.dict_learning_online服务于内部目的,已被废弃。的
inner_stats_,iter_offset_和random_state_属性decomposition.MiniBatchDictionaryLearning服务于内部目的,已被废弃。的默认值
batch_size在1.3版本中,两者的参数将从3更改为256。
Enhancement
decomposition.SparsePCA和decomposition.MiniBatchSparsePCA保留d类型numpy.float32. #22111 通过 Takeshi Oura .Enhancement
decomposition.TruncatedSVD现在允许n_components == n_features,如果algorithm='randomized'. #22181 通过 Zach Deane-Mayer .Enhancement 添加 get_feature_names_out 致所有变压器
decomposition模块:decomposition.DictionaryLearning,decomposition.FactorAnalysis,decomposition.FastICA,decomposition.IncrementalPCA,decomposition.KernelPCA,decomposition.LatentDirichletAllocation,decomposition.MiniBatchDictionaryLearning,decomposition.MiniBatchSparsePCA,decomposition.NMF,decomposition.PCA,decomposition.SparsePCA,而且decomposition.TruncatedSVD. #21334 通过 Thomas Fan .Enhancement
decomposition.TruncatedSVD公开参数n_oversamples和power_iteration_normalizer以调谐utils.extmath.randomized_svd并在特征数量较多、矩阵的排序较高或矩阵的其他特征使得低排序逼近困难时获得准确的结果。 #21705 通过 Jay S. Stanley III .Enhancement
decomposition.PCA公开参数power_iteration_normalizer以调谐utils.extmath.randomized_svd并在低阶逼近困难时获得更准确的结果。 #21705 通过 Jay S. Stanley III .Fix
decomposition.FastICA现在验证输入参数fitinstead of_ _init__. #21432 通过 Hannah Bohle 和 Maren Westermann .Fix
decomposition.FastICA现在接受np.float32没有无声的向上投射的数据。d类型由以下方式保存fit和fit_transform并且主拟合属性使用与训练数据相同精度的dtype。 #22806 通过 Jihane Bennis 和 Olivier Grisel .Fix
decomposition.FactorAnalysis现在验证输入参数fitinstead of_ _init__. #21713 通过 Haya 和 Krum Arnaudov .Fix
decomposition.KernelPCA现在验证输入参数fitinstead of_ _init__. #21567 通过 Maggie Chege .Fix
decomposition.PCA和decomposition.IncrementalPCA更安全地使用协方差矩阵的倒数计算精度,如果self.noise_variance_是零。 #22300 通过 Meekail Zain 和 #15948 通过 @sysuresh .Fix 大幅减少了中的峰值内存使用
decomposition.PCA打电话时fit或fit_transform. #22553 通过 Meekail Zain .API Change
decomposition.FastICA现在支持白化的单位方差。其默认值whiten论点将从True(其行为就像'arbitrary-variance')到'unit-variance'在1.3版本中。 #19490 通过 Facundo Ferrin 和 Julien Jerphanion .
sklearn.discriminant_analysis#
Enhancement 添加 get_feature_names_out 到
discriminant_analysis.LinearDiscriminantAnalysis. #22120 通过 Thomas Fan .Fix
discriminant_analysis.LinearDiscriminantAnalysis现在使用正确的方差缩放系数,这可能导致不同的模型行为。 #15984 通过 Okon Samuel 和 #22696 通过 Meekail Zain .
sklearn.dummy#
Fix
dummy.DummyRegressor不再覆盖constantparameter duringfit. #22486 by Thomas Fan .
sklearn.ensemble#
Major Feature 添加额外选项
loss="quantile"到ensemble.HistGradientBoostingRegressor用于建模分位数。可以使用新参数指定分位数级别quantile. #21800 和 #20567 通过 Christian Lorentzen .Efficiency
fit的ensemble.GradientBoostingClassifier和ensemble.GradientBoostingRegressor现在称utils.check_array具有参数force_all_finite=False对于非初始热启动运行,因为之前已经检查过。 #22159 通过 Geoffrey Paris .Enhancement
ensemble.HistGradientBoostingClassifier由于新的私有丢失函数模块,对于二进制问题,尤其是对于多类问题,速度更快。 #20811 , #20567 和 #21814 通过 Christian Lorentzen .Enhancement 添加支持使用预装模型
cv="prefit"在ensemble.StackingClassifier和ensemble.StackingRegressor. #16748 通过 Siqi He 和 #22215 通过 Meekail Zain .Enhancement
ensemble.RandomForestClassifier和ensemble.ExtraTreesClassifier有新criterion="log_loss",这相当于criterion="entropy". #23047 通过 Christian Lorentzen .Enhancement 添加 get_feature_names_out 到
ensemble.VotingClassifier,ensemble.VotingRegressor,ensemble.StackingClassifier,而且ensemble.StackingRegressor. #22695 和 #22697 通过 Thomas Fan .Enhancement
ensemble.RandomTreesEmbedding现在有一个信息丰富的 get_feature_names_out 在输出要素名称中包括树索引和叶索引的函数。 #21762 通过 Zhehao Liu 和 Thomas Fan .Efficiency 拟合
ensemble.RandomForestClassifier,ensemble.RandomForestRegressor,ensemble.ExtraTreesClassifier,ensemble.ExtraTreesRegressor,而且ensemble.RandomTreesEmbedding现在在多处理设置中速度更快,特别是对于后续的配合warm_start启用. #22106 通过 Pieter Gijsbers .Fix 更改参数
validation_fraction在ensemble.GradientBoostingClassifier和ensemble.GradientBoostingRegressor因此,如果将浮点数以外的任何内容作为参数传递,就会引发错误。 #21632 通过 Genesis Valencia .Fix 中删除了导致中央处理器超额订阅的潜在来源
ensemble.HistGradientBoostingClassifier和ensemble.HistGradientBoostingRegressor当中央处理器资源使用有限时,例如在docker容器中使用cgroups配额。 #22566 通过 Jérémie du Boisberranger .Fix
ensemble.HistGradientBoostingClassifier和ensemble.HistGradientBoostingRegressor在具有非默认值的pandas DataFrame上安装时不再发出警告scoringparameter and early_stopping enabled. #22908 by Thomas Fan .Fix 修复HTML代表
ensemble.StackingClassifier和ensemble.StackingRegressor. #23097 通过 Thomas Fan .API Change 属性
loss_的ensemble.GradientBoostingClassifier和ensemble.GradientBoostingRegressor已被弃用并将在1.3版本中删除。 #23079 通过 Christian Lorentzen .API Change 更改了默认的
max_features1.0为ensemble.RandomForestRegressor并"sqrt"为ensemble.RandomForestClassifier.请注意,这些结果与以前相同,但更容易理解。旧默认值"auto"已被弃用并将在1.3版本中删除。同样的变化也适用ensemble.ExtraTreesRegressor和ensemble.ExtraTreesClassifier. #20803 通过 Brian Sun .Efficiency 提高的运行时性能
ensemble.IsolationForest通过跳过重复的输入检查。 #23149 通过 Zhehao Liu .
sklearn.feature_extraction#
Feature
feature_extraction.FeatureHasher现在支持PyPy。 #23023 通过 Thomas Fan .Fix
feature_extraction.FeatureHasher现在验证输入参数transforminstead of_ _init__. #21573 通过 Hannah Bohle 和 Maren Westermann .Fix
feature_extraction.text.TfidfVectorizer现在不会创建一个feature_extraction.text.TfidfTransformer在__init__按照我们的API的要求。 #21832 通过 Guillaume Lemaitre .
sklearn.feature_selection#
Feature 添加了自动模式
feature_selection.SequentialFeatureSelector.如果参数n_features_to_select是'auto',选择特征,直到分数改进不超过参数tol.的默认值n_features_to_select由None到'warn'在1.1中并将成为'auto'在1.3。None和'warn'将在1.3中删除。 #20145 通过 murata-yu .Feature 添加了将呼叫传递到
max_features参数feature_selection.SelectFromModel.还引入了新属性max_features_这是从max_features以及期间的数据fit.如果max_features是一个正数,那么max_features_ = max_features.如果max_features是一个可调用的,那么max_features_ = max_features(X). #22356 通过 Meekail Zain .Enhancement
feature_selection.GenericUnivariateSelect保留float32 dtype。 #18482 通过 Thierry Gameiro 和 Daniel Kharsa 和 #22370 通过 Meekail Zain .Enhancement 添加参数
force_finite到feature_selection.f_regression和feature_selection.r_regression.在特征或目标恒定或特征和目标完全相关(仅适用于F统计量)的情况下,该参数允许强制输出为有限。 #17819 通过 Juan Carlos Alfaro Jiménez .Efficiency 提高的运行时性能
feature_selection.chi2使用布尔数组。 #22235 通过 Thomas Fan .Efficiency 减少的内存使用
feature_selection.chi2. #21837 通过 Louis Wagner .
sklearn.gaussian_process#
Fix
predict和sample_y方法gaussian_process.GaussianProcessRegressor现在,在单目标和多目标情况下以及这两种情况下返回正确形状的数组normalize_y=False和normalize_y=True. #22199 通过 Guillaume Lemaitre , Aidar Shakerimoff 和 Tenavi Nakamura-Zimmerer .Fix
gaussian_process.GaussianProcessClassifier如果出现信息量更大的错误CompoundKernel通过kernel. #22223 通过 MarcoM .
sklearn.impute#
Enhancement
impute.SimpleImputer现在,当由于训练集中缺少任何观察值而跳过特征时,会用特征名称发出警告。 #21617 通过 Christian Ritter .Enhancement 新增支持
pd.NA在impute.SimpleImputer. #21114 通过 Ying Xiong .Enhancement 添加 get_feature_names_out 到
impute.SimpleImputer,impute.KNNImputer,impute.IterativeImputer,而且impute.MissingIndicator. #21078 通过 Thomas Fan .API Change 的
verbose参数已被弃用impute.SimpleImputer.删除空列时将始终发出警告。 #21448 通过 Oleh Kozynets 和 Christian Ritter .
sklearn.inspection#
Feature 使用方法添加显示以绘制分类器的边界决策
inspection.DecisionBoundaryDisplay.from_estimator. #16061 通过 Thomas Fan .Enhancement 在
inspection.PartialDependenceDisplay.from_estimator,允许kind接受字符串列表,以指定为每个要素交互绘制哪种类型的图。 #19438 通过 Guillaume Lemaitre .Enhancement
inspection.PartialDependenceDisplay.from_estimator,inspection.PartialDependenceDisplay.plot,而且inspection.plot_partial_dependence现在支持绘制通过设置参数控制的居中个人条件期望(cICE)和居中的ATP曲线centered. #18310 通过 Johannes Elfner 和 Guillaume Lemaitre .
sklearn.isotonic#
Enhancement 添加 get_feature_names_out 到
isotonic.IsotonicRegression. #22249 通过 Thomas Fan .
sklearn.kernel_approximation#
sklearn.linear_model#
Feature
linear_model.ElasticNet,linear_model.ElasticNetCV,linear_model.Lasso和linear_model.LassoCV支持sample_weight对于稀疏输入X. #22808 通过 Christian Lorentzen .Feature
linear_model.Ridge与solver="lsqr"现在支持将稀疏输入与fit_intercept=True. #22950 通过 Christian Lorentzen .Enhancement
linear_model.QuantileRegressor支持基于高位的求解器的稀疏输入。 #21086 通过 Venkatachalam Natchiappan .此外,这些求解器现在从一开始就使用CSC矩阵,从而加快了匹配速度。 #22206 通过 Christian Lorentzen .Enhancement
linear_model.LogisticRegression对于solvers="lbfgs"和solver="newton-cg",由于新的私有损失函数模块,适用于二进制问题,特别是适用于多类问题。在多类情况下,这些解算器的内存消耗也减少了,因为目标现在是标签编码(映射到整数),而不是标签二进制化(一热编码)。班级越多,受益就越大。 #21808 , #20567 和 #21814 通过 Christian Lorentzen .Enhancement
linear_model.GammaRegressor,linear_model.PoissonRegressor和linear_model.TweedieRegressor对于solvers="lbfgs". #22548 , #21808 和 #20567 通过 Christian Lorentzen .Enhancement 收件箱参数
base_estimator到estimator在linear_model.RANSACRegressor以提高可读性和一致性。base_estimator已弃用,将在1.3中删除。 #22062 通过 Adrian Trujillo .Enhancement
linear_model.ElasticNet当产生非有限参数权重时,使用坐标下降的其他线性模型类会显示错误消息。 #22148 通过 Christian Ritter 和 Norbert Preining .Enhancement
linear_model.ElasticNet和linear_model.Lasso现在,当传递无效值时,引发一致的错误消息l1_ratio,alpha,max_iter和tol. #22240 通过 Arturo Amor .Enhancement
linear_model.BayesianRidge和linear_model.ARDRegression现在保留float 32 dype。 #9087 通过 Arthur Imbert 和 #22525 通过 Meekail Zain .Enhancement
linear_model.RidgeClassifier现在支持多标签分类。 #19689 通过 Guillaume Lemaitre .Enhancement
linear_model.RidgeCV和linear_model.RidgeClassifierCV现在,当传递无效值时,引发一致的错误消息alphas. #21606 通过 Arturo Amor .Enhancement
linear_model.Ridge和linear_model.RidgeClassifier现在,当传递无效值时,引发一致的错误消息alpha,max_iter和tol. #21341 通过 Arturo Amor .Enhancement
linear_model.orthogonal_mp_gram保留d类型numpy.float32. #22002 通过 Takeshi Oura .Fix
linear_model.LassoLarsIC现在可以正确计算AIC和BIC。当出现以下情况时,n_features > n_samples以及当没有提供噪音方差时。 #21481 通过 Guillaume Lemaitre 和 Andrés Babino .Fix
linear_model.TheilSenRegressor现在验证输入参数max_subpopulation在fitinstead of_ _init__. #21767 通过 Maren Westermann .Fix
linear_model.ElasticNetCV现在,当出现以下情况时,l1_ratio=0. #21724 通过 Yar Khine Phyo .Fix
linear_model.LogisticRegression和linear_model.LogisticRegressionCV现在设置n_iter_属性的形状尊重文档字符串,并且与在一对休息设置中使用其他求解器时获得的形状一致。以前,它只记录每个二元子问题的最大迭代次数,而现在所有迭代次数都被记录。 #21998 通过 Olivier Grisel .Fix 物业
familyoflinear_model.TweedieRegressoris not validated in_ _初始化__'不再。相反,此(私有)属性在中被弃用 :class:`linear_model.GammaRegressor,linear_model.PoissonRegressor和linear_model.TweedieRegressor,并将在1.3中删除。 #22548 通过 Christian Lorentzen .Fix 的
coef_和intercept_属性linear_model.LinearRegression现在,当输入稀疏时,在存在样本权重的情况下可以正确计算。 #22891 通过 Jérémie du Boisberranger .Fix 的
coef_和intercept_属性linear_model.Ridge与solver="sparse_cg"和solver="lbfgs"现在,当输入稀疏时,在存在样本权重的情况下可以正确计算。 #22899 通过 Jérémie du Boisberranger .Fix
linear_model.SGDRegressor和linear_model.SGDClassifier现在,在启用提前停止时正确计算验证错误。 #23256 通过 Zhehao Liu .API Change
linear_model.LassoLarsIC现在暴露了noise_variance作为参数,以便提供噪音方差的估计。这一点尤其重要,n_features > n_samples并且无法计算噪音方差的估计器。 #21481 通过 Guillaume Lemaitre .
sklearn.manifold#
Feature
manifold.Isomap现在通过radius论点 #19794 通过 Zhehao Liu .Enhancement
manifold.spectral_embedding和manifold.SpectralEmbedding支持np.float32dype并将保留此dype。 #21534 通过 Andrew Knyazev .Enhancement 添加 get_feature_names_out 到
manifold.Isomap和manifold.LocallyLinearEmbedding. #22254 通过 Thomas Fan .Enhancement 添加
metric_params到manifold.TSNE用于优化的距离度量的附加参数的构造函数。 #21805 通过 Jeanne Dionisi 和 #22685 通过 Meekail Zain .Enhancement
manifold.trustworthiness引发错误,如果n_neighbours >= n_samples / 2以确保对该功能的正确支持。 #18832 通过 Hong Shao Yang 和 #23033 通过 Meekail Zain .Fix
manifold.spectral_embedding现在使用高斯,而不是以前的均匀 [0, 1] 特征解算器中特征量的随机初始逼近lobpcg和amg以提高其数字稳定性。 #21565 通过 Andrew Knyazev .
sklearn.metrics#
Feature
metrics.r2_score和metrics.explained_variance_score有一个新force_finite参数.将此参数设置为False在完美预测或恒定的情况下,将返回实际的非有限分数y_true,而不是有限近似 (1.0和0.0分别)当前默认返回。 #17266 通过 Sylvain Marié .Feature
metrics.d2_pinball_score和metrics.d2_absolute_error_score计算 \(D^2\) 弹球损失和绝对误差的回归得分分别。metrics.d2_absolute_error_score是一个特例metrics.d2_pinball_score具有固定的分位数参数alpha=0.5易于使用和发现。的 \(D^2\) 分数是r2_score并可以解释为所解释的偏差部分。 #22118 通过 Ohad Michel .Enhancement
metrics.top_k_accuracy_score在以下情况下引发改进的错误消息y_trueis binary andy_scoreis 2d. #22284 by Thomas Fan .Enhancement
metrics.roc_auc_score现在支持average=None在多类情况下,multiclass='ovr'它将返回每个课程的分数。 #19158 通过 Nicki Skafte .Enhancement 添加
im_kwparameter tometrics.ConfusionMatrixDisplay.from_estimatormetrics.ConfusionMatrixDisplay.from_predictions, andmetrics.ConfusionMatrixDisplay.plot. Theim_kwparameter is passed to thematplotlib.pyplot.imshowcall when plotting the confusion matrix. #20753 by Thomas Fan .Fix
metrics.silhouette_score现在支持预先计算的距离的整数输入。 #22108 通过 Thomas Fan .Fix 修复了中的一个错误
metrics.normalized_mutual_info_score它可以返回无界值。 #22635 通过 Jérémie du Boisberranger .Fix 修复
metrics.precision_recall_curve和metrics.average_precision_score当真实的标签都是负面的时。 #19085 通过 Varun Agrawal .API Change
metrics.SCORERSis now deprecated and will be removed in 1.3. Please usemetrics.get_scorer_namesto retrieve the names of all available scorers. #22866 by Adrin Jalali .API Change 参数
sample_weight和multioutput的metrics.mean_absolute_percentage_error根据 SLEP009 .引入了废弃周期。 #21576 通过 Paul-Emile Dugnat .API Change 的
"wminkowski"度量metrics.DistanceMetric已被弃用,并将在1.3版中删除。相反,现有的"minkowski"指标现在包含可选的w权重的参数。此弃用旨在与SciPy 1.8约定保持一致。 #21873 通过 Yar Khine Phyo .API Change
metrics.DistanceMetric被移出sklearn.neighbors到sklearn.metrics.使用neighbors.DistanceMetricfor imports对于向后兼容仍然有效,但该别名将在1.3中被删除。 #21177 通过 Julien Jerphanion .
sklearn.mixture#
Enhancement
mixture.GaussianMixture和mixture.BayesianGaussianMixture现在可以使用k-means++和随机数据点进行初始化。 #20408 通过 Gordon Walsh , Alberto Ceballos 和 Andres Rios .Fix 修复正确卸载的错误
precisions_cholesky_在mixture.GaussianMixture当提供precisions_init通过取其平方根。 #22058 通过 Guillaume Lemaitre .Fix
mixture.GaussianMixture现在正常化weights_更安全,防止呼叫时四舍五入错误mixture.GaussianMixture.sample与n_components=1. #23034 通过 Meekail Zain .
sklearn.model_selection#
Enhancement 现在可以通过了
scoring="matthews_corrcoef"所有模型选择工具scoring使用马修斯相关系数(MCC)的参数。 #22203 通过 Olivier Grisel .Enhancement 当所有拆分的匹配失败时,在交叉验证期间引发错误。类似地,当所有模型和所有拆分的匹配失败时,在网格搜索期间也会引发错误。 #21026 通过 Loïc Estève .
Fix
model_selection.GridSearchCV,model_selection.HalvingGridSearchCV现在验证输入参数fitinstead of_ _init__. #21880 通过 Mrinal Tyagi .Fix
model_selection.learning_curve现在支持partial_fitwith regressors. #22982 by Thomas Fan .
sklearn.multiclass#
Enhancement
multiclass.OneVsRestClassifier现在支持verbose参数,以便可以看到装配的进展。 #22508 通过 Chris Combs .Fix
multiclass.OneVsOneClassifier.predict当内部分类器只有一个时,返回正确的预测 predict_proba . #22604 通过 Thomas Fan .
sklearn.neighbors#
Enhancement 添加 get_feature_names_out 到
neighbors.RadiusNeighborsTransformer,neighbors.KNeighborsTransformer和neighbors.NeighborhoodComponentsAnalysis. #22212 通过 Meekail Zain .Fix
neighbors.KernelDensity现在验证输入参数fitinstead of_ _init__. #21430 通过 Desislava Vasileva 和 Lucy Jimenez .Fix
neighbors.KNeighborsRegressor.predict现在,当给出类似数组的输入时,如果KNeighborsRegressor首先用传递给weights参数. #22687 通过 Meekail Zain .
sklearn.neural_network#
Enhancement
neural_network.MLPClassifierandneural_network.MLPRegressorshow error messages when optimizers produce non-finite parameter weights. #22150 by Christian Ritter and Norbert Preining.Enhancement 添加 get_feature_names_out 到
neural_network.BernoulliRBM. #22248 通过 Thomas Fan .
sklearn.pipeline#
Enhancement 在中添加了对“passthrough”的支持
pipeline.FeatureUnion.将Transformer设置为“passthrough”将使功能保持不变。 #20860 通过 Shubhraneel Pal .Fix
pipeline.Pipeline现在不验证超参数__init__但在.fit(). #21888 通过 iofall 和 Arisa Y. .Fix
pipeline.FeatureUnion不验证中的超参数__init__.验证现在在中处理.fit()和.fit_transform(). #21954 通过 iofall 和 Arisa Y. .Fix 限定
__sklearn_is_fitted__在pipeline.FeatureUnion返回正确的结果utils.validation.check_is_fitted. #22953 通过 randomgeek78 .
sklearn.preprocessing#
Feature
preprocessing.OneHotEncoder现在支持将不常见的类别分组为单个功能。通过指定如何选择不频繁类别来启用不频繁类别min_frequencyormax_categories. #16018 by Thomas Fan .Enhancement 新增了一项
subsample参数以preprocessing.KBinsDiscretizer.这允许在拟合模型时指定要使用的最大样本数。该选项仅在以下情况下可用strategy设置为quantile. #21445 通过 Felipe Bidu 和 Amanda Dsouza .Enhancement 添加
encoded_missing_valuetopreprocessing.OrdinalEncoderto configure the encoded value for missing data. #21988 by Thomas Fan .Enhancement 添加了
get_feature_names_out方法和新参数feature_names_out到preprocessing.FunctionTransformer.您可以设置feature_names_out以“一对一”使用输入要素名称作为输出要素名称,或者您可以将其设置为返回输出要素名称的可调用对象。当Transformer更改特征数量时,这尤其有用。如果feature_names_out是无(默认),那么get_output_feature_names没有定义。 #21569 通过 Aurélien Geron .Enhancement 添加 get_feature_names_out 到
preprocessing.Normalizer,preprocessing.KernelCenterer,preprocessing.OrdinalEncoder,而且preprocessing.Binarizer. #21079 通过 Thomas Fan .Fix
preprocessing.PowerTransformer与method='yeo-johnson'better supports significantly non-Gaussian data when searching for an optimal lambda. #20653 by Thomas Fan .Fix
preprocessing.LabelBinarizer现在验证输入参数fitinstead of_ _init__. #21434 通过 Krum Arnaudov .Fix
preprocessing.FunctionTransformer与check_inverse=True现在,当输入具有混合数据类型时,提供信息性错误消息。 #19916 通过 Zhehao Liu .Fix
preprocessing.KBinsDiscretizer现在可以更一致地处理垃圾箱边缘。 #14975 通过 Andreas Müller 和 #22526 通过 Meekail Zain .Fix 添加
preprocessing.KBinsDiscretizer.get_feature_names_out支持时encode="ordinal". #22735 by Thomas Fan .
sklearn.random_projection#
Enhancement 增加了一个
inverse_transform方法和compute_inverse_transform参数以random_projection.GaussianRandomProjection和random_projection.SparseRandomProjection.当参数设置为True时,将在fit并存储为inverse_components_. #21701 通过 Aurélien Geron .Enhancement
random_projection.SparseRandomProjection和random_projection.GaussianRandomProjection保留d类型numpy.float32. #22114 通过 Takeshi Oura .Enhancement 添加 get_feature_names_out 致所有变压器
sklearn.random_projection模块:random_projection.GaussianRandomProjection和random_projection.SparseRandomProjection. #21330 通过 Loïc Estève .
sklearn.svm#
Enhancement
svm.OneClassSVM,svm.NuSVC,svm.NuSVR,svm.SVC和svm.SVR现在暴露n_iter_,libsvm优化例程的迭代次数。 #21408 通过 Juan Martín Loyola .Enhancement
svm.SVR,svm.SVC,svm.NuSVR,svm.OneClassSVM,svm.NuSVC现在,当双间隙估计产生非有限参数权重时,提出错误。 #22149 通过 Christian Ritter 和 Norbert Preining .Fix
svm.NuSVC,svm.NuSVR,svm.SVC,svm.SVR,svm.OneClassSVM现在验证输入参数,fitinstead of_ _init__. #21436 通过 Haidar Almubarak .
sklearn.tree#
Enhancement
tree.DecisionTreeClassifier和tree.ExtraTreeClassifier有新criterion="log_loss",这相当于criterion="entropy". #23047 通过 Christian Lorentzen .Fix 修复Poisson分裂准则中的一个错误
tree.DecisionTreeRegressor. #22191 通过 Christian Lorentzen .API Change 更改了默认值
max_features1.0为tree.ExtraTreeRegressor并"sqrt"为tree.ExtraTreeClassifier,这不会改变匹配结果。原始默认值"auto"已被弃用并将在1.3版本中删除。设置max_features到"auto"也被废弃tree.DecisionTreeClassifier和tree.DecisionTreeRegressor. #22476 通过 Zhehao Liu .
sklearn.utils#
Enhancement
utils.check_array和utils.multiclass.type_of_target现在接受input_name参数,用于在传递无效输入数据(例如,具有NaN或无限值)时使错误消息更具信息性。 #21219 通过 Olivier Grisel .Enhancement
utils.check_array返回一个浮点nd数组,np.nanwhen passed aFloat32orFloat64pandas extension array withpd.NA. #21278 by Thomas Fan .Enhancement
utils.estimator_html_repr在不受信任的jupyter笔记本中运行时显示更有用的错误消息。 #21316 通过 Thomas Fan .Enhancement
utils.estimator_html_repr在HTML表示的左上角显示一个箭头,以显示元素是如何可单击的。 #21298 通过 Thomas Fan .Enhancement
utils.check_array与dtype=Nonereturns numeric arrays when passed in a pandas DataFrame with mixed dtypes.dtype="numeric"will also make better infer the dtype when the DataFrame has mixed dtypes. #22237 by Thomas Fan .Enhancement
utils.check_scalar现在在显示类型时有更好的消息。 #22218 通过 Thomas Fan .Fix 更改的错误消息
ValidationError提出utils.check_X_y当y为无时,以便与check_requires_y_none估计器检查。 #22578 通过 Claudio Salvatore Arcidiacono .Fix
utils.class_weight.compute_class_weight现在只要求所有班级yhave a weight inclass_weight. An error is still raised when a class is present inybut not inclass_weight. #22595 by Thomas Fan .Fix
utils.estimator_html_repr具有改进的嵌套元估计器的可视化。 #21310 通过 Thomas Fan .Fix
utils.check_scalar出现错误时include_boundaries={"left", "right"}而且界限还没有设定。 #22027 通过 Marie Lanternier .Fix
utils.metaestimators.available_if正确返回可以腌制的有界方法。 #23077 通过 Thomas Fan .API Change
utils.estimator_checks.check_estimator的参数现在称为estimator(原名为Estimator). #22188 通过 Mathurin Massias .API Change
utils.metaestimators.if_delegate_has_method已被弃用,并将在1.3版中删除。使用utils.metaestimators.available_if而不是. #22830 通过 Jérémie du Boisberranger .
代码和文档贡献者
感谢自1.0版本以来为项目维护和改进做出贡献的所有人,包括:
2357juan, Abhishek Gupta, adamgonzo, Adam Li, adijohar, Aditya Kumawat, Aditya Raghuwanshi, Aditya Singh, Adrian Trujillo Duron, Adrin Jalali, ahmadjubair33, AJ Druck, aj-white, Alan Peixinho, Alberto Mario Ceballos-Arroyo, Alek Lefebvre, Alex, Alexandr, Alexandre Gramfort, alexanmv, almeidayoel, Amanda Dsouza, Aman Sharma, Amar pratap singh, Amit, amrcode, András Simon, Andreas Grivas, Andreas Mueller, Andrew Knyazev, Andriy, Angus L'Herrou, Ankit Sharma, Anne Ducout, Arisa, Arth, arthurmello, Arturo Amor, ArturoAmor, Atharva Patil, aufarkari, Aurélien Geron, avm19, Ayan Bag, baam, Bardiya Ak, Behrouz B, Ben3940, Benjamin Bossan, Bharat Raghunathan, Bijil Subhash, bmreiniger, Brandon Truth, Brenden Kadota, Brian Sun, cdrig, Chalmer Lowe, Chiara Marmo, Chitteti Srinath Reddy, Chloe-Agathe Azencott, Christian Lorentzen, Christian Ritter, christopherlim98, Christoph T. Weidemann, Christos Aridas, Claudio Salvatore Arcidiacono, combscCode, Daniela Fernandes, darioka, Darren Nguyen, Dave Eargle, David Gilbertson, David Poznik, Dea María Léon, Dennis Osei, DessyVV, Dev514, Dimitri Papadopoulos Orfanos, Diwakar Gupta, Dr. Felix M. Riese, drskd, Emiko Sano, Emmanouil Gionanidis, EricEllwanger, Erich Schubert, Eric Larson, Eric Ndirangu, ErmolaevPA, Estefania Barreto-Ojeda, eyast, Fatima GASMI, Federico Luna, Felix Glushchenkov, fkaren27, Fortune Uwha, FPGAwesome, francoisgoupil, Frans Larsson, ftorres16, Gabor Berei, Gabor Kertesz, Gabriel Stefanini Vicente, Gabriel S Vicente, Gael Varoquaux, GAURAV CHOUDHARY, Gauthier I, genvalen, Geoffrey-Paris, Giancarlo Pablo, glennfrutiz, gpapadok, Guillaume Lemaitre, Guillermo Tomás Fernández Martín, Gustavo Oliveira, Haidar Almubarak, Hannah Bohle, Hansin Ahuja, Haoyin Xu, Haya, Helder Geovane Gomes de Lima, henrymooresc, Hideaki Imamura, Himanshu Kumar, Hind-M, hmasdev, hvassard, i-aki-y, iasoon, Inclusive Coding Bot, Ingela, iofall, Ishan Kumar, Jack Liu, Jake Cowton, jalexand3r, J Alexander, Jauhar, Jaya Surya Kommireddy, Jay Stanley, Jeff Hale, je-kr, JElfner, Jenny Vo, Jérémie du Boisberranger, Jihane, Jirka Borovec, Joel Nothman, Jon Haitz Legarreta Gorroño, Jordan Silke, Jorge Ciprián, Jorge Loayza, Joseph Chazalon, Joseph Schwartz-Messing, Jovan Stojanovic, JSchuerz, Juan Carlos Alfaro Jiménez, Juan Martin Loyola, Julien Jerphanion, katotten, Kaushik Roy Chowdhury, Ken4git, Kenneth Prabakaran, kernc, Kevin Doucet, KimAYoung, Koushik Joshi, Kranthi Sedamaki, krishna kumar, krumetoft, lesnee, Lisa Casino, Logan Thomas, Loic Esteve, Louis Wagner, LucieClair, Lucy Liu, Luiz Eduardo Amaral, Magali, MaggieChege, Mai, mandjevant, Mandy Gu, Manimaran, MarcoM, Marco Wurps, Maren Westermann, Maria Boerner, MarieS-WiMLDS, Martel Corentin, martin-kokos, mathurinm, Matías, matjansen, Matteo Francia, Maxwell, Meekail Zain, Megabyte, Mehrdad Moradizadeh, melemo2, Michael I Chen, michalkrawczyk, Micky774, milana2, millawell, Ming-Yang Ho, Mitzi, miwojc, Mizuki, mlant, Mohamed Haseeb, Mohit Sharma, Moonkyung94, mpoemsl, MrinalTyagi, Mr. Leu, msabatier, murata-yu, N, Nadirhan Şahin, Naipawat Poolsawat, NartayXD, nastegiano, nathansquan, nat-salt, Nicki Skafte Detlefsen, Nicolas Hug, Niket Jain, Nikhil Suresh, Nikita Titov, Nikolay Kondratyev, Ohad Michel, Oleksandr Husak, Olivier Grisel, partev, Patrick Ferreira, Paul, pelennor, PierreAttard, Piet Brömmel, Pieter Gijsbers, Pinky, poloso, Pramod Anantharam, puhuk, Purna Chandra Mansingh, QuadV, Rahil Parikh, Randall Boyes, randomgeek78, Raz Hoshia, Reshama Shaikh, Ricardo Ferreira, Richard Taylor, Rileran, Rishabh, Robin Thibaut, Rocco Meli, Roman Feldbauer, Roman Yurchak, Ross Barnowski, rsnegrin, Sachin Yadav, sakinaOuisrani, Sam Adam Day, Sanjay Marreddi, Sebastian Pujalte, SEELE, SELEE, Seyedsaman (Sam) Emami, ShanDeng123, Shao Yang Hong, sharmadharmpal, shaymerNaturalint, Shuangchi He, Shubhraneel Pal, siavrez, slishak, Smile, spikebh, sply88, Srinath Kailasa, Stéphane Collot, Sultan Orazbayev, Sumit Saha, Sven Eschlbeck, Sven Stehle, Swapnil Jha, Sylvain Marié, Takeshi Oura, Tamires Santana, Tenavi, teunpe, Theis Ferré Hjortkjær, Thiruvenkadam, Thomas J. Fan, t-jakubek, toastedyeast, Tom Dupré la Tour, Tom McTiernan, TONY GEORGE, Tyler Martin, Tyler Reddy, Udit Gupta, Ugo Marchand, Varun Agrawal, Venkatachalam N, Vera Komeyer, victoirelouis, Vikas Vishwakarma, Vikrant khedkar, Vladimir Chernyy, Vladimir Kim, WeijiaDu, Xiao Yuan, Yar Khine Phyo, Ying Xiong, yiyangq, Yosshi999, Yuki Koyama, Zach Deane-Mayer, Zeel B Patel, zempleni, zhenfisher, 赵丰 (Zhao Feng)