Sergej DAGDA странная концепция для процесса обучения алгоритма, чем больше учу тем хуже понимаю предмет изучения.
Поясню свою мысль. Все алгоритмы машинного обучения настраиваются на больших объемах данных, и цель - снизить процент ошибок. Но этот процент всегда остается, он не нулевой, пусть будет X процентов. Каким бы низким этот X ни был, вы все равно будете получать примерно такую долю ошибок на своих фотках. На каких-то больше, на каких-то меньше, но в среднем Х. Так вот, очевидно, чем больше у вас фоток, тем больше в абсолютных величинах этот Х будет. Надеюсь, понятно объяснил.
Sergej DAGDA я не думаю что ключевая проблема в производительности.
Упускаете два момента. Во-первых алгоритм в программе один, такой, чтобы работал на большинстве современных компьютеров. Никто не будет делать десять версий алгоритмов, что бы на вашем работал более мощный, а у кого-то менее мощный. Даже самые богатые компании таким не занимаются, потому что это безумие.
Во-вторых, у вас, очевидно, не совсем верные ориентиры для сравнений. Может для того, чтобы условно гонять Doom в 4К у вас и шикарный компьютер, но какая-нибудь типовая большая нейросеть, которую использует у себя тот же midjorney у вас скорее всего даже не запустится, потому что 8ГБ видеопамяти - ну это прям совсем по нижнему краю, для более-менее продвинутых нейросетей. Вы, вероятно, просто не представляете себе, насколько большими могут быть большие нейросети. И могли бы быть намного больше, и давали бы сильно лучше результат, да просто пока индустрия не поспевает за их аппетитами, вот все и как-то выкручиваются, пытаются подобрать архитектуры, которые влезут в то, что есть сейчас за разумные деньги.