Как стать автором
Обновить

Какой следующий член…? — Ищем формулу для n-го члена последовательности, производящие функции и Z-преобразование

Wolfram ResearchЗанимательные задачкиПрограммированиеАлгоритмыМатематика
Tutorial
Всего голосов 17: ↑17 и ↓0 +17
Просмотры4.2K
Комментарии 3

Комментарии 3

От себя хочу добавить, что FindSequenceFunction находит не все последовательности — и если не находит, стоит поискать в OEIS. С FindFormula на реальных задачах мне не удалось получить удовлетворительных результатов — использую FindFit с явно задаваемой формулой (обычно рациональным полиномом).
Да, конечно, FindSequenceFunction не найдет всего, хотя спектр того, что найдет очень широк. Поэтому про OEIS и написал, потрясающий сайт.

Что касается FindFormula — ее главная задача, как я считаю, дать толчок для поисков или решить задачи не очень сложные, относительно, в полностью автоматическом режиме.

FindFit уже требует явного указания на то, в каком виде искать.

Вообще, эта тема очень интересная — оптимизация — если читателю интересно — то подробнее об этом можно почитать в разделе Optimization.

Вообще примерно можно указать круг функций, относящихся к оптимизации (их больше — еще спец. функции машинного обучения, всевозможные оптимизации выражений и т. п.)

Optimization (10)
ConicOptimization, LinearFractionalOptimization, LinearOptimization, QuadraticOptimization, SecondOrderConeOptimization, SemidefiniteOptimization, VectorGreater, VectorGreaterEqual, VectorLess, VectorLessEqual

Fitting (20)
FindFit, ConfidenceLevel, CovarianceEstimatorFunction, DesignMatrix, DispersionEstimatorFunction, ExponentialFamily, FindFormula, FitRegularization, FittedModel, GeneralizedLinearModelFit, IncludeConstantBasis, LeastSquares, LinearModelFit, LinearOffsetFunction, LinkFunction, LogitModelFit, NominalVariables, NonlinearModelFit, ProbitModelFit, VarianceEstimatorFunction, Weights

Min Max (22)
ArgMax, ArgMin, FindArgMax, FindArgMin, FindCurvePath, FindMaximum, FindMaxValue, FindMinimum, FindMinValue, FindShortestTour, KnapsackSolve, LinearProgramming, Maximize, MaxValue, Minimize, MinValue, NArgMax, NArgMin, NMaximize, NMaxValue, NMinimize, NMinValue

Net (90)
AggregationLayer, AppendLayer, AttentionLayer, BasicRecurrentLayer, BatchNormalizationLayer, BatchSize, CatenateLayer, ConstantArrayLayer, ConstantPlusLayer, ConstantTimesLayer, ContrastiveLossLayer, ConvolutionLayer, CrossEntropyLossLayer, CTCLossLayer, DeconvolutionLayer, DotLayer, DropoutLayer, ElementwiseLayer, EmbeddingLayer, ExtractLayer, FlattenLayer, GatedRecurrentLayer, LearningRate, LearningRateMultipliers, LinearLayer, LocalResponseNormalizationLayer, LongShortTermMemoryLayer, LossFunction, MaxTrainingRounds, MeanAbsoluteLossLayer, MeanSquaredLossLayer, NetAppend, NetBidirectionalOperator, NetChain, NetDecoder, NetDelete, NetDrop, NetEncoder, NetEvaluationMode, NetExtract, NetFlatten, NetFoldOperator, NetGraph, NetInformation, NetInitialize, NetInsert, NetInsertSharedArrays, NetJoin, NetMapOperator, NetMapThreadOperator, NetMeasurements, NetModel, NetNestOperator, NetPairEmbeddingOperator, NetPort, NetPortGradient, NetPrepend, NetRename, NetReplace, NetReplacePart, NetSharedArray, NetStateObject, NetTake, NetTrain, NetTrainResultsObject, NormalizationLayer, OrderingLayer, PaddingLayer, PartLayer, PoolingLayer, PrependLayer, ReplicateLayer, ReshapeLayer, ResizeLayer, SequenceLastLayer, SequenceMostLayer, SequenceRestLayer, SequenceReverseLayer, SoftmaxLayer, SpatialTransformationLayer, SummationLayer, ThreadingLayer, TotalLayer, TrainingProgressCheckpointing, TrainingProgressFunction, TrainingProgressMeasurements, TrainingProgressReporting, TrainingStoppingCriterion, TransposeLayer, UnitVectorLayer
Я думаю что все математические функции, и будущие данные уже решены так как энергия это жидкость, а самая стабильная форма жидкости это спираль ( которая наматывается на саму себя ) youtu.be/HfSF-xC4Tt4

www.youtube.com/watch?v=6wXJgRTusJs

Обратите внимание какие красивые симметричные узоры. А спираль в спирали. мммм
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.