–Ага! — сказали мужики

Пыта­юсь нащу­пать гра­ни­цы воз­мож­но­стей сво­ей пред­ска­за­тель­ной моде­ли на TensorFlow. Точ­ность пред­ска­за­ния, кста­ти, после чте­ния ком­мен­тов, стал оце­ни­вать по трём пара­мет­рам: сред­не­му (по моду­лю) откло­не­нию, мини­маль­но­му откло­не­нию, и мак­си­маль­но­му откло­не­нию (всё в про­цен­тах).

Так вот какие-то там сло­же­ния, деле­ния, вычи­та­ния и умно­же­ния в самых раз­ных ком­би­на­ци­ях — без про­блем.

–Вжик — ска­за­ла ней­ро­сеть

Ах вот ты как? А логаритм10 сум­мы двух дро­бей, помно­жен­ных на зна­че­ние, воз­ве­дён­ное в квад­рат, могёшь?

–Дыр-дыр-ддд — ска­за­ла ней­ро­сеть. И ста­ла оши­бать­ся аж на две­сти про­цен­тов.

При­ми­тив­ное нара­щи­ва­ние коли­че­ства пара­мет­ров резуль­та­тов пока не даёт. Види­мо, пред­ска­за­ние рез­ко нели­ней­ных функ­ций (осо­бен­но если их там >1) оно всё же не очень.

Хочу зачесть лите­ра­ту­ру:

Я уве­рен, что про­сто что-то не так делаю.