nickgillian / grt

gesture recognition toolkit

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

Training with just one sample for each set?

antithing opened this issue · comments

Hi, and thank you for making this code available. I am trying to build an application where I save poses from a live feed, then train a model. There would only be one sample for each pose. I have created the attached .grt file, but when I load it, I get:

Training model...
[TRAINING KNN] Training set accuracy: 9.09091
Testing model...
Pipeline Test Accuracy: 9.09091
Manual test accuracy: 9.09091
Precision:      0.0909091       0       0       0       0       0       0
0       0       0       0
Recall:         1       0       0       0       0       0       0       0
0       0       0
FMeasure:       0.166667        -nan(ind)       -nan(ind)       -nan(ind)
-nan(ind)       -nan(ind)       -nan(ind)       -nan(ind)       -nan(ind)
-nan(ind)       -nan(ind)

Should this work with this number of samples? What can I do to get this running?

GRT_LABELLED_CLASSIFICATION_DATA_FILE_V1.0
DatasetName: NOT_SET
InfoText:
NumDimensions: 100
TotalNumExamples: 11
NumberOfClasses: 11
ClassIDsAndCounters:
1 1 NOT_SET
2 1 NOT_SET
3 1 NOT_SET
4 1 NOT_SET
5 1 NOT_SET
6 1 NOT_SET
7 1 NOT_SET
8 1 NOT_SET
9 1 NOT_SET
10 1 NOT_SET
11 1 NOT_SET
UseExternalRanges: 0
Data:
1 622 396 404 411 417 423 429 435 440 445 449 453 455 457 460 462 464 466 467 468 469 470 471 471 471 472 472 472 472 472 472 471 469 467 464 462 460 457 455 452 450 446 443 440 436 432 426 417 410 403 395 388 382 376 370 364 358 352 347 341 335 329 324 319 315 310 304 301 298 296 295 295 294 293 293 292 291 291 290 290 291 293 296 300 304 308 314 319 324 328 333 338 344 349 353 359 365 372 379 386
2 612 378 385 393 399 404 409 414 419 423 427 431 435 438 440 442 444 446 447 448 449 449 450 450 450 451 451 452 452 453 453 454 454 453 452 450 449 447 445 443 442 439 437 435 433 430 427 422 415 408 401 395 388 381 376 370 364 358 352 347 341 336 330 325 320 316 311 308 304 300 297 294 293 292 292 291 290 289 288 287 287 286 285 286 286 288 291 294 297 300 305 309 314 319 324 329 335 340 346 351
3 621 495 506 517 527 538 548 559 570 580 590 599 608 617 623 629 634 638 642 645 647 649 650 652 653 653 653 654 654 653 651 648 643 639 632 624 617 609 600 591 582 572 563 553 543 533 522 511 500 489 479 468 457 447 436 425 415 405 395 386 376 368 360 353 348 343 338 334 330 328 326 326 325 325 325 325 324 324 324 326 327 329 332 336 341 347 353 359 367 376 384 393 403 414 424 435 446 456 467 478
4 572 392 398 405 411 418 424 431 438 444 450 455 461 466 471 475 479 481 484 486 488 490 491 492 493 493 493 493 494 494 494 494 491 488 484 481 476 472 467 462 457 452 448 442 437 431 425 418 412 406 400 393 386 380 373 367 361 355 350 344 339 333 327 322 317 312 306 302 297 293 288 285 282 282 281 281 280 280 279 279 278 278 280 283 287 291 296 299 304 308 313 317 321 326 332 337 343 348 354 360
5 633 395 403 408 413 419 424 430 436 441 446 450 453 455 457 458 460 461 463 464 464 465 465 466 466 467 467 468 468 468 469 469 470 470 471 471 470 469 467 466 464 463 461 460 458 456 453 449 447 444 440 436 431 425 423 421 419 418 416 415 413 412 410 409 407 406 403 401 400 398 397 395 394 393 392 391 391 390 389 388 387 386 386 385 384 383 384 383 383 384 384 385 385 386 387 387 388 388 389 389
6 623 406 408 409 411 412 414 416 417 419 420 420 420 421 421 421 421 422 422 422 422 423 423 423 423 423 424 424 424 424 425 425 425 425 426 426 426 426 427 427 427 427 427 428 428 428 428 422 417 412 407 402 397 391 386 381 376 371 366 362 358 354 350 347 344 340 335 331 330 328 328 327 327 326 326 325 325 324 324 325 326 327 330 333 336 339 344 348 351 355 359 363 367 371 376 380 384 389 393 398
7 636 341 347 353 359 366 372 380 386 392 398 404 409 414 419 424 429 433 435 437 439 440 441 442 443 444 445 445 446 447 448 448 449 450 450 450 450 450 449 448 447 446 445 443 442 441 440 437 436 435 433 431 428 424 419 413 407 401 396 391 387 383 379 375 372 369 365 362 359 356 353 350 348 345 341 338 335 332 329 326 323 320 317 314 312 311 311 310 309 308 307 306 305 304 306 308 311 314 317 319
8 520 390 396 401 406 411 415 421 425 429 433 437 441 445 449 451 454 456 458 460 462 464 466 467 468 469 470 471 471 472 472 472 473 473 473 474 474 471 469 466 463 459 455 450 446 441 435 429 423 417 410 404 398 392 386 379 374 369 364 359 354 350 346 341 336 332 326 322 319 319 320 320 321 321 322 322 323 323 325 327 329 330 332 334 336 338 341 342 344 346 348 350 351 353 355 357 359 362 365 369
9 630 368 376 383 388 393 398 403 407 411 415 418 422 423 424 425 426 427 428 429 429 430 430 431 432 432 433 433 434 434 435 435 436 436 437 437 435 434 433 432 430 429 428 426 424 423 420 416 412 407 400 393 388 384 380 375 371 367 363 359 355 351 348 344 341 338 334 332 329 327 325 324 323 322 322 321 321 320 320 319 319 318 318 318 317 317 320 322 324 326 329 332 335 339 342 346 349 352 355 360
10 655 350 359 369 379 389 397 407 416 425 433 441 449 456 463 469 472 475 477 480 482 484 485 486 487 489 490 491 491 492 493 493 494 495 496 495 494 492 490 487 484 480 476 471 465 459 453 446 439 430 422 413 404 394 385 375 365 357 350 346 340 335 330 324 319 315 311 309 306 304 301 299 297 296 296 295 295 295 295 294 294 294 294 294 294 294 295 296 298 300 302 304 307 311 315 319 324 328 332 339
11 586 408 416 424 431 439 447 455 462 470 477 484 492 498 505 511 517 522 526 530 533 537 539 541 543 545 546 547 547 547 546 545 544 542 540 537 533 530 525 519 513 507 500 493 487 480 473 465 458 450 444 436 428 421 413 406 399 391 384 377 370 363 356 350 343 336 329 324 318 313 308 303 300 299 299 298 298 297 297 296 296 297 299 302 306 311 317 323 329 334 340 346 350 356 362 368 375 381 388 395

Adding more samples has fixed this. Thanks!