WO2005122134A1 - 楽音生成装置、楽音生成方法、楽音生成プログラムおよび記憶媒体 - Google Patents

楽音生成装置、楽音生成方法、楽音生成プログラムおよび記憶媒体 Download PDF

Info

Publication number
WO2005122134A1
WO2005122134A1 PCT/JP2004/008037 JP2004008037W WO2005122134A1 WO 2005122134 A1 WO2005122134 A1 WO 2005122134A1 JP 2004008037 W JP2004008037 W JP 2004008037W WO 2005122134 A1 WO2005122134 A1 WO 2005122134A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
musical sound
tone
image
motion
Prior art date
Application number
PCT/JP2004/008037
Other languages
English (en)
French (fr)
Inventor
Shunsuke Nakamura
Original Assignee
Toyota Motor Kyushu Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Kyushu Inc. filed Critical Toyota Motor Kyushu Inc.
Priority to US11/629,235 priority Critical patent/US7655856B2/en
Priority to EP04745712.2A priority patent/EP1760689B1/en
Priority to PCT/JP2004/008037 priority patent/WO2005122134A1/ja
Publication of WO2005122134A1 publication Critical patent/WO2005122134A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/455Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data

Definitions

  • the present invention relates to a musical sound generation device, a musical sound generation method, a musical sound generation program, and a storage medium.
  • the present invention relates to a musical sound generating device, a musical sound generating method, a musical sound generating program, and a storage medium for automatically generating musical sound data corresponding to image data.
  • Japanese Patent No. 2629740 discloses a technique for controlling a tempo or the like using a contour of a subject.
  • R (red), G (green), and B (blue) color signals are separated from an input video signal, and gradation data representing gradation is generated as digital data for each color.
  • the subject is specified based on the gradation data of each color and the predetermined threshold data, the contour of the subject is detected, and the performance is controlled according to the detected “complexity of the contour”.
  • Japanese Patent Laid-Open Publication No. 2000-276138 discloses a technique for detecting a position of a moving operation object and generating a musical tone.
  • the technique detects the position of a specific operation object having a predetermined shape, and performs this operation.
  • the tone generation is based on both the moving time from the arbitrary position of the object to the current position and the current position. More specifically, the position of a specific part of the subject is detected, a tone to be emitted is assigned to the sound generation area set on the image display surface, and it is determined that the specific part no longer exists in a certain area on the image display surface. After a lapse of a predetermined period of time from when the tone is determined to exist in another area on a different image display surface, and when the determined other area belongs to the tone generation area, a tone assigned to the tone generation area is generated. I do.
  • Japanese Patent Application Laid-Open No. 2000-276139 discloses a technique of extracting a plurality of motion vectors from each block of a supplied image. There is disclosed a technique of calculating one control vector from the plurality of motion vectors and generating a musical tone based on the calculated control vector.
  • a method of extracting a plurality of motion vectors from each block of an image is to capture pixels having the least difference in color in a corresponding block (16 x 16 pixels) of a specific image frame and a subsequent image frame. , And the difference between the positions is defined as a motion vector.
  • the color signal of a still image is decomposed, the subject is specified by a threshold test for each color, and the contour is detected. It is necessary to judge the complexity, and the processing load increases.
  • the disadvantage is that the technique of modifying existing sound data based on the complexity of contours and generating music sounds is not expected.
  • a musical sound generating apparatus and a musical sound generating method for automatically generating musical sound data by calculating motion data from input image data without preparing performance information or the like in a simple manner A tone generation program and a storage medium. Disclosure of the invention
  • the invention according to claim 1 of the present application is a method of inputting image data of each frame and inputting motion data indicating a motion from a difference between corresponding pixels of image data of a plurality of frames.
  • Operating section specifying means to be extracted tone generating means for generating tone data having a sound source, a scale, and a volume corresponding to the motion data specified by the operating section specifying means; and tone data generated by the tone generating means.
  • a tone generator having output means for outputting the
  • a tone synthesizer is provided, and the tone synthesizer generates tone data synthesized with the other tone data.
  • the invention according to claim 2 of the present application is characterized in that the musical sound generating means according to claim 1 is provided with a rhythm control means, and the rhythm control means processes the musical sound data.
  • the invention according to claim 3 of the present application is characterized in that the musical tone generating means according to claim 1 is provided with repetition control means, and the musical tone data is processed by the repetition control means.
  • the invention according to claim 4 of the present application provides an image database (hereinafter abbreviated as image DB) in which patterns are registered in the musical sound generating means according to claim 1, and an image matching means.
  • image DB image database
  • the invention according to claim 5 of the present application is characterized in that a light emitting means is provided in the musical sound generating device according to claim 1, and the light emitting means emits light based on the musical sound data.
  • the invention according to claim 6 of the present application is characterized in that an image processing means is provided in the musical sound generating device according to claim 1, and the image processing means performs image processing based on the musical sound data.
  • the invention according to claim 7 of the present application calculates motion data indicating a differential force motion of each corresponding pixel of the image data of a plurality of frames using the image data of the frame as an input unit, and responds to the motion data.
  • a tone generation method for generating tone data having a sound source, a scale, and a volume.
  • a tone synthesizer is provided, and the tone synthesizer generates tone data synthesized with the other tone data.
  • the invention according to claim 8 of the present application provides an operation unit specifying step of extracting motion data indicating motion from a difference between corresponding pixels of image data of a plurality of frames using the image data of the frame as an input unit.
  • the music generation program In the music generation program,
  • a tone synthesis step is provided in the tone generation step, and the tone data is synthesized with the other tone data in the tone synthesis step.
  • the invention according to claim 9 of the present application is characterized in that it is a computer-readable recording medium recording the program according to claim 8.
  • FIG. 1 is a configuration diagram of a musical sound generation device according to the present invention.
  • FIG. 2 is a flowchart for specifying an operation of a musical sound generation program according to the present invention.
  • FIG. 3 is a flowchart of a matching process according to the present invention.
  • FIG. 4 is a flowchart of a sound task according to the present invention.
  • FIG. 5 is a flowchart of a diagram task according to the present invention.
  • FIG. 6 is a flowchart of an optical task according to the present invention.
  • FIG. 7 is a diagram showing a configuration example of a difference list and a history stack.
  • FIG. 8 is a diagram of a storage medium for storing a musical sound generation program according to the present invention.
  • FIG. 1 shows a first embodiment according to the present invention, and is a configuration diagram of a musical sound generation device.
  • reference numeral 100 denotes a tone generation device as tone generation means according to the present invention.
  • Reference numeral 110 denotes an imaging unit which inputs continuous image data to the musical sound generation device 100 as a frame.
  • Reference numeral 120 denotes continuous frame-based image data from another device, for example, a moving image itself output from a camera, a personal computer, a storage medium, or the like in frame units.
  • Reference numeral 10 provided in the musical sound generation device 100 is an operation specifying means, which targets image data sent from the imaging means 110 and image data 120 from other devices, and also stores input image data. And a function to detect movement. At present, it is common for continuous moving images to be input at a frame rate of 10 to 30 frames / sec.
  • the operation specifying means 10 includes a first buffer 12 for reading a continuous frame, and a second buffer 13 for storing a previous read frame. First, a frame of moving image data is read into the first buffer 12, and the contents thereof are sent to the second buffer 13, and the next frame is read into the first buffer. By this repetition, the image frame following the frame of the second buffer is always read into the first buffer, and the comparison of both frames of the first buffer and the second buffer is continuously performed. It becomes.
  • the frame information of the image data read into the first buffer 12 is sent to the second buffer 13 after the matching unit 11 extracts whether or not the registered figure is included.
  • the matching means 11 extracts by matching whether there is a figure registered in a pattern database (hereinafter abbreviated as pattern DB) in the first buffer 12, and sends the figure to the musical sound generating means 60.
  • pattern DB a pattern database
  • the pattern matching means 11 first extracts a contour from the analysis of the image data in the first buffer 12 and generates a pattern obtained by enlarging, reducing, and rotating the contour figure. Check whether it is in the registered figure registered in the pattern DB).
  • the image data in the first buffer 12 and the image data in the second buffer 13 are continuous frames, and the difference between each pixel of both images is extracted in the difference buffer 14, and the motion detection unit 15 The motion data between them is extracted.
  • each pixel value of the image data of the first buffer and the image data of the second buffer when all the pixels are different, it can be distinguished whether the image has been illuminated as a whole, all have moved, or are unrelated images. Since it is not possible, it is not possible to distinguish the motion, and the frame is advanced to the next frame. Even if all the pixel differences are zero, no still image power or motion is detected, so frame advance is performed until the next motion.
  • pixels in which the R, G, and B color value differences are equal to or greater than a certain threshold in both frames were extracted as having a difference, and the gnorape of the pixels with the difference was extracted as an ⁇ island '' and extracted.
  • the size of each island is treated as an area value substituted by the number of pixels having this difference, and islands whose area value is less than or equal to the threshold are ignored.
  • there is a color difference in addition to the brightness difference and it is possible to pick up motion for each color by obtaining the color difference.
  • the motion detection unit 15 outputs the list of the X- and Y-coordinates and the area value of the center of gravity of each island indicating the difference between the two frames to the tone generation unit 60.
  • the tone generating means 60 has a sound database (hereinafter referred to as a sound DB) 40 in which pixels, scales, and chords are registered, and the position and area of each island of the frame data sent from the operation specifying means 10 The corresponding sound is extracted from the sound data, and the parameters of the music data are output in accordance with the standard MlDI (Musical Instruments Digital Interface) for exchanging music data as music data.
  • the synthesizing means 61 of the musical sound generating means 60 reads analog data or digital data from a music database (hereinafter abbreviated as music DB) 50 storing existing measures, melodies, music, etc. The data is converted to digital data once, and if it is digital data, it is extracted as it is and combined with the musical sound data based on the MIDI data output from the motion detection unit, and the combined digital data is generated as MIDI parameters.
  • music DB music database
  • the rhythm control means 62 in the musical sound generating means 60 is used when the rhythm / tempo of a song or the like is modified or changed by the generated musical sound data. This is a function to extract the time element from the motion data expressed by MIDI of the motion identification means 10 and use the repetition cycle between frames to speed up or slow down the rhythm and tempo.
  • the repetition control means 63 in the musical sound generating means 60 extracts a time element from the motion data expressed by MIDI of the motion specifying means 10, and uses the repetition period between frames to generate the generated musical sound data. Is a function that repeatedly emits.
  • the above data is output as sound by the sound output means 65, or a force for generating and outputting a specific image by the image processing means 80, and output such as blinking of light by the light emitting means 90. .
  • FIGS. 2 to 7 show a second embodiment using a program according to the present invention, and a description will be given below of a tone generation program.
  • FIG. 2 is a flowchart of the entire program processing.
  • the program in FIG. 2 is an embodiment executed as one task under the control of the operating system.
  • step P210 each task for audio output, image output, and light output is started.
  • each output task is generated separately, and the tone data based on the subsequent difference is received as “waiting for event”.
  • child tasks such as sound tasks, image tasks, and light tasks that perform processing independently and in parallel are activated separately, but the specific events to be processed, in this case, It is in a state of waiting for an event in the music data.
  • the program specifying this operation as the parent task generates tone data, and when a processing event specifically occurs, the child task is activated with the tone data for each child task. Accordingly, the tone data is sent to each child task at the same time as the tone data is generated, and each task performs each output process in parallel. However, if you want to output the effect of synchronizing sound, image, and light, you can add them with a single task, such as adding a certain delayed sound to the motion of the image. It is also possible to configure so that each task synchronizes its output by processing or using a synchronization instruction. In addition, the activation of each task may be performed as needed at another initial setting, or may be activated separately.
  • step P 211 the first frame for generating a musical sound is read into the first buffer.
  • step P212 to read the second frame continuously, the contents of the read first buffer are moved to the second buffer, and again in step P214, the next new frame is read into the first buffer.
  • the above is the procedure for always storing the latest frame in the first buffer and storing the contents of the frame immediately before it in the second buffer. And compare the pixels for
  • Step P216 In the process of calculating the difference between the two frames in Step P216, first, for each corresponding pixel of the frame, a difference for each color of each pixel is calculated, and a group of pixels having a difference of a certain value or more from the surroundings is calculated. As "islands". This island is a group of pixels that have a certain range of values, not just pixels of exactly the same value. Then, the number of pixels constituting the island is counted as the area value of each island.
  • step P2128 when the color values of all pixels of both compared images are all equal to or less than a certain value, it is a case of a still image or a continuous frame without motion, and the difference between all pixels is zero. In this case, the process proceeds to step P240, and the process proceeds to a matching process for determining whether or not a registered figure is included. If there is a difference of more than a certain value between the pixels of the compared images, it is determined in step P220 whether the values of all the pixels are more than a certain value. If the two images are completely different images, if there is no pixel with the same color value due to the entire light, or if a fine pattern figure moves at high speed, This is the case when they cannot be detected.
  • Step P240 the condition to reach step P222 is that, with the above selection, there is a part where the color value differs by more than a certain value and the same part whose color value is less than a certain value in each corresponding pixel in the frame. Based on this, it is determined whether there is any movement.
  • Step P222 detects islands one after another as a group formed by pixels having similar difference values as “islands”. If there are no more islands to be taken out Step P224 Proceed to P232. When one island is taken out, the area of the island and the center of gravity of the pixels constituting the island are calculated in step P226. Objects whose area value does not reach a certain threshold value are inspected in step P228, ignored as trivial islands, and the process returns to step P222 in which the next island is taken out and inspected. If the area of the island exceeds a certain threshold, an entry having the center of gravity of this island is registered in the difference list for tone generation in step P228, and the area and the average color value of each dot are added. Return to processing step P222 for extracting the island.
  • FIG. 7 is a configuration diagram of an embodiment of the history statistic force 80 and the difference list 70.
  • Each detected island is registered in the difference list 70.
  • a history stat force of 80 stacks them chronologically.
  • the difference list 70 has an entry number column 71 for recording the number of islands detected for each frame to be analyzed, and a time stamp column 72 for recording the time at that time.
  • an entry is created for each island with the X coordinate 73 and the Y coordinate 74 of each island as a pair, and the area and average color value of the island are set as an area column 75 and an average color value column 76 in that column. Stored in P230.
  • Step P240 is a pattern matching process for determining whether or not a registered pattern exists in the contents of the first buffer, which will be described in detail with reference to FIG.
  • the pattern matching process in step P246 if a registered figure is found, it is recorded in the registered figure field 83 of the history stat force 80, or the registered figure returns in a single frame with a parameter value as a visible figure list.
  • the history statistic 80 is obtained when the end display field 81 for displaying the last entry, the difference list field 82 having the difference list 70 of each island as an entry, and the island is determined to be a registered figure. And a registered figure field 83 in which the registered figure is entered.
  • Step P246 is a process of transferring data to each output task, and sends an event occurrence notification command to the operating system using the latest column of the history statistic force 80 including a difference list indicating movement as a parameter. .
  • the output processing for each task is shown in Figs.
  • step P248 if there is a next frame, the process returns to step P212 in which that frame is read as a new frame. If it is the processing of the last frame in the judgment of step P248, In step P250, the series of differences stored in the history statistics 80 and the detected figures, and the figure list, if any, are deleted.In step P252, each output task is deleted, and the process specific to this operation is performed. finish.
  • a warning output is output in a repetitive mode in which the input image is continuously executed even after the input image is stopped, or when an emergency situation is detected.
  • the output task can be freely configured.
  • FIG. 3 is a flowchart of the matching process shown in Step P240 of FIG.
  • Step P300 takes in the contents of the first buffer and prepares for access to the pattern DB in which the matching figure is registered.
  • the outline of the figure is extracted by a general method by calculating, for example, a difference in color value from the contents of the first buffer.
  • semi-IJ is determined one after another whether or not a closed loop exists in the extracted contour. Matching for similar figures is performed.
  • Step P340 If no matching data is found in the inspection in Step P340, the process returns to Step P320 for extracting a closed figure again. If matching data is found, the name (shape ID) of the matched figure is extracted in step P350. Next, in step P360, in addition to the name of the figure, the center position of the figure and the color of the figure are extracted and added to a figure list (not shown).
  • the figure list is a list storing information of registered figures included in the frame, and is added to the registered figure column 83 of the history statistic 80.
  • an end display is added to the last column 83 of the history lister 80 in the figure list in step P370, and the processing time is stored in the time stamp column. This is returned to the caller as a parameter list.
  • FIG. 4 is a flowchart of the sound task.
  • the sound task generated in step P210 in FIG. 2 first issues an event waiting command to the operating system in step P410, and waits for being called with voice data from step P246 shown in FIG.
  • the call parameters will be The figure list is pointed out, and the difference list 70 and the registered figure are taken out in step P412 using the end display field 81 of the history statistic or the last entry of the figure list as an end condition.
  • step P414 the sound DB is first read, and based on the extracted difference list 70 and the registered figures, the instrument type is set using the X coordinate as a key, the scale is set using the Y coordinate as a key, and the volume balance is set using the XY coordinate as a key. Select the sound effector type using the area as a key and the special sound using the registered figure as a key. In the above, the parameters are adjusted in accordance with the MIDI standard in step P416.
  • step P4108 it is determined whether or not there is a request for synthesizing the generated sound data with other sound data. If there is a request for synthesizing the sound data, in step P420, the music, bar, melody to be synthesized is read from the music DB. , Etc. are read and synthesized, but a digital 'signal' processor may be used for this synthesis.
  • step P422 it is determined whether there is a request to change the tempo of the generated music, bar, melody, and the like.
  • a request to change the tempo for example, a process is performed in which, for example, the time stamp of the same registered figure is extracted, and the interval of the target music is gradually adjusted to the repetition interval.
  • step P426 it is determined whether there is a repetition request. If repetition is specified, in step P428, a repetition cycle and an end condition for repetition are set. Here, if the value of the time stamp 72 of the difference list 70 registered in the history stack 80 is taken out and the difference is taken out, the period of the change of the figure can be taken out based on this.
  • Step P430 is an audio output process in which the digital audio signal is converted into an analog audio signal and output from a speaker or the like.
  • step P432 it is determined whether the repetition condition set in step P428 is satisfied. If not, the process returns to step P430 to restart the audio output process. The process returns to the event waiting step P410 to generate a sound according to the movement of the frame.
  • FIG. 5 is a flowchart of the diagram task.
  • the diagram task generated in step P210 in FIG. 2 first issues an event wait command to the operating system in step P510. Then, the process waits for a call with sound data from step P246 shown in FIG.
  • the call parameter indicates the history list or figure list, and the difference list 70 is registered with the end display field 81 of the history statistic force or the last entry display of the figure list as an end condition. The figure is taken out in step P512.
  • step P514 first, an image database (hereinafter abbreviated as image DB) in which pixels are registered is read out, and based on the extracted difference list 70 and the registered figures, the type of the figure is set using the X coordinate as a key, and the Y coordinate is used as a key. Select a color scheme using the XY coordinates as a key, a color scheme using the XY coordinates as a key, a type of figure effector using an area as a key, and a special figure using a registered figure as a key. In step P516, it is determined whether or not the registered figure is in the history list.
  • image DB image database
  • step P528 If there is a registered figure, in step P518, the figure is changed or the color is changed in accordance with the promise of drawing various figures corresponding to the registered figure.
  • step P520 it is determined whether there is a request for synthesizing the generated sound data with other sound data, and if there is a request for synthesizing sound data, in step P522, a pattern, a photograph, and the like to be synthesized are read from the image DB and synthesized.
  • This application can be performed using various image processing application programs.
  • Step P524 is an image output process in which image data is displayed on various display devices.
  • FIG. 6 is a flowchart of the optical task.
  • the optical task generated in step P210 in FIG. 2 first issues an event wait command in step P610, and waits for being called with sound data from step P246 shown in FIG.
  • the calling parameter points to the history list or figure list, and the difference list 70 and the registered figure Take out in step P612.
  • step P614 first, a light database (hereinafter, abbreviated as light DB) in which a list of light colors, colors, and lightness and a selection rule are registered is read, and the X coordinate is issued based on the extracted difference list and the registered figure.
  • light DB a light database
  • step P616 it is determined whether or not the registered figure is in the history list. If there is a registered figure, in step P618, the intensity of the light beam is changed into a wave shape, the light beam locus is moved, and the like. I can.
  • step P620 it is determined whether there is a request for repetition of the generated optical data. If there is a request for repetition of the optical data, the repetition time is set in step P622, and in step P624, lighting of the issuing device is output. In step P626, it is determined whether or not the repetition condition set in step P622 is satisfied.If not, the process returns to step P620 to resume the light output process. Return to Step P610 for event waiting to generate the corresponding light.
  • the elements to be selected corresponding to the coordinate values and the like described above, and the elements from the various DBs to be selected are examples, and are not limited to those, and may be variously selected as the objects to be selected.
  • Various elements can be registered in the DB, and various different selections are possible according to the application target and purpose.Replacement, change, and combination of the elements to be selected and various DB registration elements are all described in this application. Shall be included in the scope of rights.
  • the present invention is not limited to this, and based on the motion data detected from the frame difference. It can be widely applied as a frame analysis sensor, and the use of an oscillating means, a power generating means, and various driving means as output means is also included in the scope of the present application.
  • FIG. 8 is an explanatory diagram of a storage medium storing a musical sound generation program according to the present invention.
  • Reference numeral 900 denotes a terminal device on which the present invention is to be implemented.
  • Reference numeral 910 denotes a bus, which includes a logical operation device (CPU) 920, a main storage device 930, and input / output means 940.
  • the input / output means 940 includes a display means 941 and a keyboard 942.
  • a program based on the present invention is stored in the storage medium (CD) 990 as an executable tone generation program (GP) 932, and a loader 931 for installing this program in the main storage 930 is also stored in the storage medium (CD) 990.
  • the storage medium (CD) 931 is read into the main storage device 930, and the tone generation program (GP) 932 is installed in the main storage device 930 by the loader 931.
  • the terminal device 900 functions as the musical sound generation device 100 shown in FIG.
  • a tone generation program (GP) 932 according to the present invention can be loaded into the terminal device 100 from a large storage device 973 built in the server 971 connected to the LAN 950 via the LAN interface LANI / F911.
  • the program reader 931 for installing the tone generation program (GP) 932 stored in the server 971 is first loaded into the main storage device 930 via the LAN 950, and then this loader Then, the tone generation program (GP) 932 in the executable form in the large memory 973 is installed in the main storage device 930.
  • the tone generation program (GP) 932 according to the present invention stored in the storage 983 can be directly installed by the remote loader 982 using the work area of the main storage device 930.
  • it may take the form of a loader 931 which is the same as that of the large storage device 973 connected to the LAN 950.
  • the invention according to claim 1 extracts motion data indicating motion from a difference between corresponding pixels of a plurality of frames of image data, and generates musical sound data generated based on the motion data. Generates music data synthesized with other sound data, so that, for example, an existing song can be changed by a dance gesture or by a change in scenery from a car
  • the invention according to claim 2 is the invention according to claim 1, wherein the musical sound generating means is provided with musical tone rhythm control means, and the rhythm control means processes the musical sound data. You can listen to the music in a comfortable rhythm that fluctuates according to the movement of the carp that flutters in the wind, accompanied by musical tones with the matched rhythm.
  • the musical tone generating means of the first aspect is provided with a repetition control means, and the repetition control means processes the musical sound data, for example, an echo may be added to the musical sound or a dangerous When an unusual movement is detected, a warning sound can be repeatedly notified.
  • the invention according to claim 4 provides the musical sound generating means according to claim 1, further comprising an image matching means, wherein a matching pattern extracted from an image database registered using a figure in the image data as a key. Since tone data is generated by Different musical sound data will be generated depending on the difference, and for example, it will be easy to detect a situation where a similar object mounted on a car, an automatic machine or an appliance and prepared for safety is dangerous due to unexpected movement etc. It becomes possible by calculation.
  • a light emitting means is provided in the musical sound generating apparatus according to claim 1, and the light emitting means emits light based on the motion data. It can emit light when the lighting is changed or when a car or the like detects dangerous movements.
  • an image processing means is provided in the musical sound generating device according to claim 1, and since the image processing means performs image processing based on the musical sound data, the movement of the object is deformed. You can view images and enjoy images that emphasize the movements of actors and animals.
  • the motion data indicating the motion is calculated from the difference between the corresponding pixels of the image data, and the sound data synthesized with the motion data and other sound data.
  • the existing music can be changed by the dance gesture or by the change of the scenery from the car.
  • the invention according to claim 8 calculates motion data indicating a motion from a difference between corresponding pixels of image data, and generates musical sound data synthesized with the motion data and other sound data.
  • an existing song can be changed with a dance gesture, or with a change of scenery from a car.

Abstract

 演奏情報などを予め準備することなく、入力した画像データから簡易な手法で動きデータを算出することにより、この算出データに基づいて楽音を生成することを目的とすることを課題とする。  そこで、本発明では、フレーム毎の画像データを入力として複数フレームの画像データの対応する各ピクセルの差分から動きを示す動きデータを抽出する動作部特定手段と、この動作部特定手段により特定された前記動きデータに応じた音源、音階、音量をもつ楽音データを生成する楽音生成手段と、この楽音生成手段により生成された楽音データを出力する出力手段とを備えた楽音生成装置において、パターンを登録した画像DBと画像マッチング手段とを設け、前記楽音生成手段に楽音合成手段を設け、この楽音合成手段で前記楽音データと他の音データとを合成した楽音データを生成する。

Description

明 細 書
楽音生成装置、楽音生成方法、楽音生成プログラムおよび記憶媒体 技術分野
[0001] 本発明は、画像データに対応した楽音データを自動生成する楽音生成装置、楽音 生成方法、楽音生成プログラムおよび記憶媒体に関する。
背景技術
[0002] 画像に対応して演奏の制御を行う技術として、例えば日本特許第 2629740号公 報には、被写体の輪郭を利用してテンポ等を制御する技術が開示されている。この 技術では、入力されたビデオ信号から R (赤)、 G (緑)、 B (青)の各色信号を分離し、 各色毎にディジタルデータとして階調を表す階調データを生成する。そして、各色の 階調データと予め定めた閾値データとに基づいて被写体を特定し、当該被写体の輪 郭を検出し、この検出した「輪郭の複雑さ」に応じて演奏を制御する。
[0003] 移動する操作物体の位置を検出して楽音を生成する技術として日本特開 2000— 2 76138号公報があり、それは形状の定まった特定の操作物体の位置を検出しておき 、この操作物体の任意位置から現在位置までの移動時間と現在位置の両要素に応 じて楽音生成するものである。詳しくは、被写体の特定部分の位置を検出し、画像表 示面上に設定した発音領域に発音させる楽音を割り当て、特定部分が画像表示面 上の、ある 1つの領域に存在しなくなつたと判定されてから所定時間経過後に、異な る画像表示面上の他の領域に存在すると判定され、かつ、その判定された他の領域 が発音領域に属するときに、発音領域に割り当てられた楽音を生成する。
[0004] 一方、モノの動きを捉えて楽音を生成する問題を解決する技術として、例えば日本 特開 2000—276139号公報には、供給された画像の各ブロックで複数の動きべタト ルを抽出し、この複数の動きベクトルから一つの制御べクトノレを算出し、この算出した 制御ベクトルに基づいて楽音を生成する技術が開示されている。
[0005] 画像の各ブロックから複数の動きベクトルを抽出する方法は、特定の画像フレーム とそれに続く画像フレームの対応する各ブロック(16X16ピクセル)中で、最も色の違 いの少ないピクセル同士を捕らえ、その位置の違いを動きベクトルとした。 [0006] し力 ながら、この日本特許第 2629740号公報に開示の技術では、静止画像を対 象として、その色信号を分解し、色毎の閾値検査により被写体を特定し、輪郭を検出 し、その複雑さを判定する必要があり、処理の負荷が増大する欠点と、輪郭の複雑さ から既存の音データを修飾する技術であり楽音を生成するという考えは想定されてい ない欠点がある。
[0007] 日本特開 2000—276138号公報に開示された技術では、登録された特定の操作 子を追う動きの判定であり、楽音の生成は達成している力 任意の動画フレームから 楽音を生成する事は考えられてレ、なレ、欠点がある。
[0008] 日本特開 2000—276139号公報に開示された技術では、動きの解析から楽音の 生成という問題に挑戦しており、解析負荷を減らすために特定の領域に限定してそ の中だけの解析で動きベクトルを検出する方法も開発してはいるが、根本的に動きべ タトルの算出に大きな負荷が掛かることを回避できない技術である。
[0009] 本発明は、連続する動画フレームを対象として、簡易な方法で動きデータを取出し 、この取り出した動きデータにより楽音データを生成することを目的とする。またこのよ うに生成される楽音データを更に既存の技術と組み合わせることにより、独特な応用 分野を構築することを目的とする。
[0010] そこで、本発明においては演奏情報などを予め準備することなぐ入力した画像デ ータから簡易な手法で動きデータを算出することにより、楽音データを自動生成する 楽音生成装置、楽音生成方法、楽音生成プログラムおよび記憶媒体を提供する。 発明の開示
[0011] 前記課題を解決するために、本願の請求項 1に係る発明は、フレーム毎の画像デ ータを入力として複数フレームの画像データの対応する各ピクセルの差分から動きを 示す動きデータを抽出する動作部特定手段と、この動作部特定手段により特定され た前記動きデータに応じた音源、音階、音量をもつ楽音データを生成する楽音生成 手段と、この楽音生成手段により生成された楽音データを出力する出力手段とを備 えた楽音生成装置にぉレ、て、
楽音合成手段を設け、この楽音合成手段で前記楽音データと他の音データと合成 した楽音データを生成することを特徴とする。 [0012] 本願の請求項 2に係る発明は、請求項 1記載の楽音生成手段に、リズム制御手段 を設け、このリズム制御手段で前記楽音データを加工することを特徴とする。
[0013] 本願の請求項 3に係る発明は、請求項 1記載の楽音生成手段に、反復制御手段を 設け、この反復制御手段により前記楽音データを加工することを特徴とする。
[0014] 本願の請求項 4に係る発明は、請求項 1記載の楽音生成手段にパターンを登録し た画像データベース(以下、画像 DBと略称する)と画像マッチング手段とを設け、こ の画像マッチング手段が前記画像データ中の図形をキーとして前記画像 DBからマ ツチングパターンを検出し、このマッチングパターンと前記動きデータとから、前記楽 音生成手段が楽音データを生成することを特徴とする。
[0015] 本願の請求項 5に係る発明は、請求項 1記載の楽音生成装置に発光手段を設け、 この発光手段は前記楽音データに基づき発光することを特徴とする。
[0016] 本願の請求項 6に係る発明は、請求項 1記載の楽音生成装置に画像処理手段を 設け、この画像処理手段は前記楽音データに基づき画像処理することを特徴とする
[0017] 本願の請求項 7に係る発明は、フレームの画像データを入力単位として複数フレー ムの画像データの対応する各ピクセルの差分力 動きを示す動きデータを算出し、こ の動きデータに応じた音源、音階、音量をもつ楽音データを生成する楽音生成方法 において、
楽音合成手段を設け、この楽音合成手段で前記楽音データと他の音データと合成 した楽音データを生成することを特徴とする。
[0018] 本願の請求項 8に係る発明は、フレームの画像データを入力単位として複数フレー ムの画像データの対応する各ピクセルの差分から動きを示す動きデータを抽出する 動作部特定ステップと、この動作部特定ステップにより特定された前記動きデータに 応じた音源、音階、音量をもつ楽音データを生成する楽音生成ステップと、この楽音 生成ステップにより生成された楽音データを出力する出力ステップとを備えた楽音生 成プログラムにおいて、
前記楽音生成ステップに楽音合成ステップを設け、この楽音合成ステップで前記楽 音データと他の音データと合成した楽音データを生成することを特徴とする。 [0019] 本願の請求項 9に関する発明は、請求項 8記載のプログラムを記録したコンビユー タ読取り可能な記録媒体であることを特徴とする。
図面の簡単な説明
[0020] [図 1]本発明に係わる楽音生成装置の構成図である。
[図 2]本発明に係わる楽音生成プログラムの動作特定を行うフローチャートである。
[図 3]本発明に係わるマッチング処理のフローチャートである。
[図 4]本発明に係わる音タスクのフローチャートである。
[図 5]本発明に係わる図タスクのフローチャートである。
[図 6]本発明に係わる光タスクのフローチャートである。
[図 7]差分リストと履歴スタックの一構成例の図である。
[図 8]本発明に係わる楽音生成プログラムを格納する記憶媒体の図である。
発明を実施するための最良の形態
[0021] 以下図面を用いて本発明を詳細に説明する。図 1は本発明に係わる第 1の実施例 であり、楽音生成装置の構成図である。
[0022] 図 1において、 100は本発明に係わる楽音生成手段としての楽音生成装置である。
110は撮像手段であり、連続した画像データをフレームとして楽音生成装置 100に 入力する。 120は他の装置からの連続したフレーム単位の画像データであり、例えば カメラやパソコンや記憶媒体等からフレーム単位で出力される動画像そのものである
[0023] 楽音生成装置 100に備えられた 10は動作特定手段であり、撮像手段 110から送出 される画像データや他の装置からの画像データ 120を対象とし、入力された画像デ ータをもとに動きを検出する機能を有する。連続する動画には 10から 30フレーム/ s ecのコマ数で入力されるのが現在一般的である。この動作特定手段 10は連続するフ レームを読み込む第 1バッファ 12と、一つ前の読み込みフレームを記憶する第 2バッ ファ 13とがある。第 1バッファ 12にまず動画データのフレームが読み込まれ、その内 容は第 2バッファ 13に送られるとともに、第 1バッファには次のフレームが読み込まれ る。この繰り返しにより、第 2バッファのフレームに続く画像フレームが常に第 1バッファ に読み込まれ、第 1バッファと第 2バッファの両フレームの比較が連続して行われるこ ととなる。
[0024] 第 1バッファ 12に読み込まれた画像データのフレーム情報はマッチング手段 11によ り登録した図形が含まれるかの抽出をへて、第 2バッファ 13へと送られる。マッチング 手段 11は第 1バッファ 12の中にパターンデータベース(以下パターン DBと略称する )に登録された図形があるかをマッチングにより取出し楽音生成手段 60に送る。この 時、パターンマッチング手段 11はまず第 1バッファ 12の画像データの解析から輪郭 を抽出し、その輪郭図形に拡大、縮小、回転の変形を加えたパターンを生成し、それ がパターンデータベース(以下、パターン DBと略称する)に登録されている登録図形 の中にあるかを検查する。
[0025] 第 1バッファ 12の画像データと第 2バッファ 13の画像データは連続したフレームで あり、両画像の各ピクセルの差分が差分バッファ 14に抽出され、その差分に基づき 動き検出部 15がフレーム間の動きデータを抽出する。第 1バッファの画像データと第 2バッファの画像データの各ピクセル値に関し、全てのピクセルが異なる時は全体に 光が当たったのか、全てが動いたのか、互いに無関係な画像なのかの区別が付かな いので、動きの区別ができず次のフレームへコマ送りをする。全てのピクセル差がゼ 口の場合も、静止画像力もしくは動きが検出されないので、次ぎの動きがあるフレーム までコマ送りを行う。差の検出は、両フレームで R、 G、 Bの各色値差が一定の閾値以 上を持つピクセルを差が有るとして抽出し、差の有るピクセルのグノレープを「島」とし て取出し、取出した各島の大きさを、この差を持つピクセル数で代用した面積値とし て扱い、面積値が閾値以下の島は無視する。差分の抽出には、明るさの差分のほか に色の差分があり、色の差分を得ることで色毎に動きを拾うことが可能である。
[0026] 動き検出部 15は両フレームの差を示す各島の重心の X座標, Y座標と面積値をリ ストにして楽音生成手段 60へ出力する。
[0027] 楽音生成手段 60は画素、音階、和音を登録した音データベース(以下、音 DBと略 称する) 40を有し、動作特定手段 10から送られてきたフレームデータの各島の位置 と面積から対応する音を取出し、楽音データとして楽音データをやり取りする規格 Ml DI (Musical Instruments Digital Interface)に合わせたに楽音データのパラ メータを出力する。 [0028] 楽音生成手段 60の中の合成手段 61は既存の小節、メロディ、曲等を格納した曲デ ータベース(以下、曲 DBと略称する) 50からアナログデータ、もしくはディジタルデー タとして読み込み、アナログデータは一度ディジタルデータに変換し、ディジタルデー タの場合はそのまま引き出して、動き検出部から出力された MIDIデータによる楽音 データと合成し、合成されたディジタルデータが MIDIのパラメータとして生成される。
[0029] 楽音生成手段 60の中のリズム制御手段 62は、生成された楽音データで曲等のリズ ムゃテンポを修飾したり変更した場合に用レ、るものである。動作特定手段 10の MIDI で表現された動きデータから時間要素を取り出し、フレーム間にある繰り返しの周期 を使って、以上のリズムやテンポを速くしたり遅くしたりする機能である。
[0030] 楽音生成手段 60の中の反復制御手段 63は、動作特定手段 10の MIDIで表現さ れた動きデータから時間要素を取り出し、フレーム間にある繰り返しの周期を使って、 生成した楽音データを繰り返し発しさせる機能である。
[0031] 以上のデータは音声出力手段 65で音声として出力されるか、画像処理手段 80で 特定の画像を生成して出力する力、、発光手段 90により光の点滅等の出力が行われ る。
[0032] 図 2から図 7は本発明に関わるプログラムによる第 2の実施例であり、楽音生成プロ グラムに関し、以下その説明を行う。図 2はプログラム処理全体のフローチャートであ る。図 2のプログラムは、オペレーティングシステムの制御下で 1つのタスクとして実行 される実施例である。ステップ P210では、音声出力、画像出力、光出力用の各タスク を起動する。本実施例では各々の出力タスクを別々に生成し、続く差分による楽音デ ータを「事象待ち」として受ける構成とする。具体的には、独立平行して処理を遂行す る音タスク、画像タスク、光タスク等の子タスク群が、別々に起動されてはいるが、処 理する具体的な事象、本件の場合は楽音データの事象発生を待つ状態となってい る。親タスクとしての本動作特定のプログラムが、楽音データを生成し、具体的に処 理事象が発生すると、各子タスクに対しこの楽音データを伴って子タスクに起動をか けることとなる。従って、楽音データの発生と同時に各子タスクに送られ、各タスクが 平行して各出力処理を行う。ただし、音と画像と光を同期させた効果を出力したい場 合は、例えば画像の動きに一定の遅れた音声を付加する等、それらを単一タスクで 処理したり、同期命令を用いて各タスクが出力の同期を取ったりするよう構成すること も可能である。また、各タスクの起動は別の初期設定時に必要に応じて行ったり、別 々に起動してもよい。
[0033] 続いてステップ P211では楽音生成のための第 1フレームを第 1バッファへ読込む。
ステップ P212では続けて第 2フレームを読込むために、読込んだ第 1バッファの内容 を第 2バッファへ移し、再びステップ P214で第 1バッファへ次ぎの新フレームを読込 む。以上は、常に最新フレームを第 1バッファへ格納し、その直前のフレーム内容を 第 2バッファへと格納する手順であり、以下この 2つのバッファを使ってステップ P216 にて連続した入力フレームの各画像のピクセルを比較し差異を取出す。
[0034] ステップ P216での両フレームの差を求める処理としては、まずフレームの対応する 各ピクセルを対象として、各ピクセルの色毎の差を算出し、周囲から一定値以上の差 を持つピクセル群を「島」として取出す。この島は差の値が全く同一のピクセルばかり でなぐ多少の値の幅を持っているピクセルからなるグループである。そして各島の面 積値として、その島を構成するピクセル数をカウントする。
[0035] ステップ P218では、比較した両画像の各ピクセルの色値が全て一定の値以下の 時は、静止画像もしくは動きのない連続したフレームの場合であり、全ピクセルの差 がゼロで、このときはステップ P240に進み登録した図形を含むかのマッチング処理 に進む。比較した画像のピクセル間に一定値以上の異なりがある時、ステップ P220 では全てのピクセルの値が一定の値以上に異なっているかの判定を行う。両画像が 全く異なる画像である場合や、全体に光が当たり同じ色値をもつピクセルが存在しな い場合、もしくは細かな柄の図形が高速に移動した場合は、画像の中の動きとしてこ れらを検出できないケースである。この両画像の対応するピクセルの色値が全て一定 の値以上に異なる場合もステップ P240に進む。従って、ステップ P222に達する条 件は以上の選択により、フレーム中で対応する各ピクセルの中に色値が一定値以上 に異なる部分と、色値が一定値以下の同じ部分が存在することであり、これを前提に 動きがあるかを判定することとなる。
[0036] ステップ P222は差の値の近いピクセル同士の作るグループを「島」として次々と島 を検出する。取出す島がなくなればステップ P224の島取出しの終了処理力 ステツ プ P232へ進む。一つの島を取出すと、ステップ P226でその島の面積と、その島を 構成するピクセルの重心を算出する。面積値が一定の閾値に達しない物は、ステツ プ P228で検査し、些事な島として無視してしまい、次ぎの島を取出して検査するステ ップ P222へと戻る。島の面積が一定の閾値を越える場合は、ステップ P228で楽音 生成のための差分リストにこの島の重心位置を有するエントリを登録し、面積と各ドッ トの平均の色値を追加し、次ぎの島を取出す処理ステップ P222に戻る。
[0037] 図 7は履歴スタツ力 80と差分リスト 70の一実施例構成図であり、検出した各島を差 分リスト 70に登録する。履歴スタツ力 80がそれらを時系列的にスタックする。差分リス ト 70には解析対象となったフレーム毎に検出した島の数を記録するエントリ数欄 71と 、そのときの時刻を記録するタイムスタンプ欄 72とを持っておる。差分リストは各島の X座標 73と、 Y座標 74を対とするエントリが島毎に生成され、その島の面積と平均の 色値がその欄に面積欄 75と平均色値欄 76としてステップ P230で格納される。
[0038] 島の抽出が終了すると、ステップ P232で差分リスト 70のタイムスタンプ欄 72に処理 時刻を記入し、最終欄数をエントリ数欄 71に格納し、ステップ P234でこの差分リスト を履歴スタツ力 80に追加して、パターンマッチング処理であるステップ P240へ進む。 ステップ P240は第 1バッファの内容に登録されたパターンが存在するかのパターン マッチング処理であり、詳細は図 3で説明する。ステップ P246のパターンマッチング 処理では登録した図形が見つかると、履歴スタツ力 80の登録図形欄 83に記録されて いるか、登録図形が単独のフレームで見つ力り図形リスとしてのパラメータ値を伴って 戻ってくる。
[0039] 履歴スタツ力 80は、エントリの最終を表示する終わり表示欄 81と各島の差分リスト 7 0をエントリとする差分リスト欄 82とその島が登録された図形であると判断されたときに その登録図形が記入される登録図形欄 83とからなる。
[0040] ステップ P246は各出力タスクへデータを受け渡す処理であり、動きを示す差分リス トを含む履歴スタツ力 80の最新欄をパラメータとして事象発生通知コマンドをォペレ 一ティングシステムに対して送出する。各タスクとしての出力処理は図 4、図 5、図 6に て示す。ステップ P248では次ぎのフレームがあればそのフレームを新フレームとして 読込むステップ P212に戻る。ステップ P248の判定で最終フレームの処理であれば 、ステップ P250で履歴スタツ力 80に保存された一連の差分や検出した図形と、図形 リストがあればその図形リストを消去し、ステップ P252で各出力タスクを消去して、本 動作特定の処理を終了する。タスクの消去に関して本実施例では、入力フレームの 終了に合わせて起動されているタスクを全て終了させたが、入力画像の停止以降も 続けて実行させる反復モードや、緊急状況の検出により警告出力を継続させたり、曲 などの合成や編集のための継続モードを続けたり等、必ずしもフレーム入力の終わり で同期して全タスクを終了させる必要がなぐ各タスクが処理条件の検出により独自 に個々に消滅する方式としてもよぐ出力タスクは自由に構成することができる。
[0041] 図 3は図 2のステップ P240で示したマッチング処理のフローチャートである。ステツ プ P300は第 1バッファの内容を取込み、マッチング図形の登録されたパターン DBの アクセス準備を行う。ステップ P310では第 1バッファの内容を対象として、例えば色 値の違レ、を計算して図形の輪郭を一般的な手法で取出す。ステップ P320では取出 した輪郭の中に閉ループが有るか次々と半 IJ定し、閉ループがあればステップ P330で この図形を拡張等の処理にてノーマライズして、パターン DBに登録された図形の中 に類似の図形があるかのマッチングを行う。
[0042] ステップ P340の検査でマッチングデータが見つからなければ、再び閉図形を取出 すステップ P320に戻る。マッチングデータが見つかれば、ステップ P350にてマッチ ングした図形の名前 (図形 ID)を取出す。次にステップ P360では、図形の名前に加え て、図形の中心位置と図形の色とを取出し、図形リスト(図示せず)に追加する。図形 リストはフレームに含まれる登録図形の情報を格納したリストであり、履歴スタツ力 80 の登録図形欄 83に追加される。ステップ P320で検査対象となった最新フレームの 登録図形抽出が全て終了すると、ステップ P370で図形リストの履歴スッタカ 80の最 終欄 83へ終了表示を付け、タイムスタンプ欄に当該処理時刻を格納して、これをパ ラメ一タリストとして呼び出し元に復帰する。
[0043] 図 4は音タスクのフローチャートである。図 2のステップ P210で生成された音タスク は、まずステップ P410で事象待ちコマンドをオペレーティングシステムに対して発し て、図 2で示したステップ P246から音声データ付きで呼び出されるのを待機する。音 タスクが呼び出しコマンドで呼び出されると、呼び出しパラメータは履歴リストもしくは 図形リストを指しており、履歴スタツ力の終表示欄 81もしくは図形リストの最終エントリ 表示を終了条件として差分リスト 70、登録図形の取出しをステップ P412で行う。ステ ップ P414ではまず音 DBを読み出し、取出した差分リスト 70と登録図形を元に、 X座 標をキーとして楽器の種別を、 Y座標をキーとして音階を、 XY座標をキーとして音量 バランスを、面積をキーとして音エフヱクタの種別を、登録図形をキーとして特殊音を おのおの選択する。以上は,ステップ P416で MIDIの基準に従ってパラメータを調 整する。
[0044] ステップ P418では生成された音データを他の音データと合成要求があるかを判定 し、音データの合成要求があれば、ステップ P420で曲 DBから、合成すべき曲、小節 、メロディ、等を読込み合成を行うが、この合成にはディジタル 'シグナル 'プロセッサ を利用しても良い。
[0045] ステップ P422では生成された曲、小節、メロディ、等のテンポの変更要求があるか を判定する。テンポの変更要求があるときには、例えば、特に同じ登録図形のタイム スタンプを取り出し、その繰り返し間隔に対象となる曲の間隔を徐々に合わせていく 等の処理を行う。曲のリズムを急激に検出したタイムスタンプの周期に合わせて変え る手法ちある。
[0046] ステップ P426は反復要求があるかの判定であり、もし反復の指定があれば、ステツ プ P428で反復の周期と、反復の終了条件を設定する。ここで、履歴スタック 80に登 録された差分リスト 70のタイムスタンプ 72の値を取り出して差を取れば、これを元に 図形の変化の周期を取出すことができる。
[0047] ステップ P430は音声出力処理であり、以上のディジタルな音声信号をアナログの 音声信号に変えてスピーカ等から出力させる。
[0048] ステップ P432では、ステップ P428で設定した反復条件を満たしているかを判定し 、満たしていなければステップ P430に戻って音声出力処理を再開し、反復条件が終 了していれば、再び次ぎフレームの動きに応じた音声の生成のために、事象待ちの ステップ P410に戻る。
[0049] 図 5は図タスクのフローチャートである。図 2のステップ P210で生成された図タスク は、まずステップ P510で事象待ちコマンドをオペレーティングシステムに対して発し て、図 2で示したステップ P246から音データ付きで呼び出されるのを待機する。図タ スクが呼び出しコマンドで呼び出されると、呼び出しパラメータは履歴リストもしくは図 形リストを指しており、履歴スタツ力の終表示欄 81もしくは図形リストの最終エントリ表 示を終了条件として差分リスト 70、登録図形の取出しをステップ P512で行う。ステツ プ P514ではまず画素の登録された画像データベース(以下、画像 DBと略称する)を 読み出し、取出した差分リスト 70と登録図形を元に、 X座標をキーとして図形の種別 を、 Y座標をキーとして明度を、 XY座標をキーとして配色を、面積をキーとして図形 ェフエクタの種別を、登録図形をキーとして特殊図形をおのおの選択する。ステップ P516では登録図形が履歴リストにあるかを判定し、登録図形があればステップ P51 8で登録図形に対応した各種図形描画の約束に従って図形の変更や、色の変更を 行う。ステップ P520では生成された音データを他の音データと合成要求があるかを 判定し、音データの合成要求があれば、ステップ P522で画像 DBから、合成すべき 図案、写真、等を読込み合成を行うが、この合成には各種画像処理のアプリケーショ ンプログラムを利用しても良レ、。
[0050] ステップ P524は画像出力処理であり、各種の表示装置へ画像データを表示させる
[0051] 図 6は光タスクのフローチャートである。図 2のステップ P210で生成された光タスク は、まずステップ P610で事象待ちコマンドを発して、図 2で示したステップ P246から 音データ付きで呼び出されるのを待機する。光タスクが呼び出しコマンドで呼び出さ れると、呼び出しパラメータは履歴リストもしくは図形リストを指しており、履歴スタツ力 の終表示欄 81もしくは図形リストの最終エントリを表示を終了条件として差分リスト 70 、登録図形の取出しをステップ P612で行う。ステップ P614ではまず光に関する色や 色彩や明度に関する一覧や選択規則を登録した光データベース (以下、光 DBと略 称する)を読み出し、取出した差分リストと登録図形を元に、 X座標をキーとして発行 色を、 Y座標をキーとして明度を、 XY座標をキーとして色彩を、面積をキーとして光 ェフエクタの種別を、登録図形をキーとして特殊発光をおのおの選択する。ステップ P616では登録図形が履歴リストにあるかを判定し、登録図形があればステップ P61 8で発光ビームの強度を波状にしたり、発光ビームの軌跡を動かしたり等の変化をつ ける。ステップ P620では生成された光データの反復要求があるかを判定し、光デー タの反復要求があれば、ステップ P622で反復時間を設定し、ステップ P624で発行 装置への点灯を出力する。ステップ P626では、ステップ P622で設定した反復条件 を満たしているかを判定し、満たしていなければステップ P620に戻って光出力処理 を再開し、反復条件が終了していれば、再び次ぎフレームの動きに応じた光の生成 のために、事象待ちのステップ P610に戻る。
[0052] 以上に示した座標値等に対応して選択する要素、及び選択対象となる各種 DBか らの要素は一実施例であり、それらに限定されるものではなぐ選択する対象として各 種 DBに種々の要素を登録することも可能で、また応用する対象と目的に応じて種々 の異なる選択も可能であって、選択対象の要素や各種 DB登録要素の取替え、変更 、組み合わせはすべて本願権利範囲に含まれるものとする。
[0053] また、以上の実施例では、発光手段や画像処理手段を出力手段として設けた例を 示したが、本発明はこれに限られるものではなぐフレーム差から検出した動きデータ をもとに、広くはフレーム解析センサとしての応用が可能であり、発振手段、発電手段 、及び各種駆動手段、を出力手段とすることも本願の権利範囲に含まれるものとする
[0054] 図 8は本発明に関する楽音生成プログラムを格納した記憶媒体に関する説明図で ある。
[0055] 900は本発明を実施する予定の端末装置である。 910はバスであり、これに論理演 算装置(CPU) 920、主記憶装置 930、入出力手段 940がある。この入出力手段 94 0中には表示手段 941、キイボード 942を備えている。記憶媒体(CD) 990には本発 明に基づくプログラムが実行形式の楽音生成プログラム(GP) 932として格納されて おり、このプログラムを主記憶 930にインストールするローダ 931が同じく記憶媒体(C D) 990に格納されている。まず、記憶媒体 (CD) 931が主記憶装置 930に読み込ま れ、このローダ 931により楽音生成プログラム(GP) 932が主記憶装置 930にインスト 一ノレされる。このインストールにより端末装置 900は図 1に示した楽音生成装置 100と して機能する。
[0056] 本発明に関する楽音生成装置 100として動作させるにはこれに限るものではなぐ LANインターフェイス LANI/F911を介して LAN950に接続されたサーバ 971に 内蔵する大記憶装置 973から本発明に基づく楽音生成プログラム(GP) 932を端末 装置 100にローデイングすることもできる。この場合は、記憶媒体 990の時と同じくサ ーバ 971に格納された楽音生成プログラム(GP) 932をインストールするプログラム口 ーダ 931をまず LAN950経由で主記憶装置 930に読み込み、しかる後にこのローダ を用いて大記憶 973中の実行形式の楽音生成プログラム(GP) 932を主記憶装置 9 30にインス卜一ノレすることとなる。
[0057] 更に、インターネット 960を介して接続されたサーバ 981に内蔵された大記憶装置
983に格納された本発明に関する楽音生成プログラム(GP) 932をリモートローダ 98 2により主記憶装置 930の作業領域を使って直接インストールすることもできる。イン ターネット 960を介してインストールする時は、 LAN950に接続された大記憶装置 97 3の場合と同じぐローダ 931を付随した形式をとることもできる。
産業上の利用可能性
[0058] (1)請求項 1に係る発明は、複数フレームの画像データの対応する各ピクセルの差 分から動きを示す動きデータを抽出し、この動きデータに基づいて生成された楽音デ ータと他の音データと合成した楽音データを生成するので、例えば既存の曲を踊りの 仕草で変化させたり、自動車からの景色の移り変わりで変化させたりすることができる
[0059] (2)請求項 2に係る発明は、請求項 1の発明において楽音生成手段に楽音リズム 制御手段を設けて、このリズム制御手段で前記楽音データを加工するので、例えば 画像の動きに合わせたリズムで楽音を伴奏させたり、風にはためく鯉のぼりの動きに 合わせて揺らぎのある心地よいリズムで曲を聞くことができる。
[0060] (3)請求項 3に係る発明は、請求項 1記載の楽音生成手段に反復制御手段を設け 、この反復制御手段により楽音データを加工するので、例えば楽音にエコーを付け たり、危険な動きを検出すると警戒音を反復して告知したりすることができる。
[0061] (4)請求項 4に係る発明は、請求項 1記載の楽音生成手段に画像マッチング手段 を設け、画像データ中の図形をキーとして登録された画像データベースから抽出さ れたマッチングパターンとによって楽音データを生成するので、類似形のものでも動 きの違いで異なる楽音データが生成されることとなり、例えば、 自動車や自動機械や 器具に搭載して安全を見越して用意された類似物が予期しない動き等で危険となる 状態の検出が簡易な算出で可能となる。
[0062] (5)請求項 5に係る発明は、請求項 1記載の楽音生成装置に発光手段を設け、この 発光手段は前記動きデータに基づき発光するので、例えば、ステージで動きに合わ せて照明を変化させたり、 自動車等が危険な動きを検出すると発光して告知したりす ること力 Sできる。
[0063] (6)請求項 6に係る発明は、請求項 1記載の楽音生成装置に画像処理手段を設け 、この画像処理手段は前記楽音データに基づき画像処理するので、ものの動きをデ フオルムした画像を鑑賞したり、例えば俳優や動物の動きを強調した画像を楽しんだ りすること力 Sできる。
[0064] (7)請求項 7に係る発明においては、画像データの対応する各ピクセルの差分から 動きを示す動きデータを算出し、この動きデータと、他の音データと合成した楽音デ ータを生成する方法により、例えば既存の曲を踊りの仕草で変化させたり、車からの 景色の移り変わりで変化させたりすることができる。
[0065] (8)請求項 8に係る発明は、画像データの対応する各ピクセルの差分から動きを示 す動きデータを算出し、この動きデータと他の音データと合成した楽音データを生成 するプログラムによって、例えば既存の曲を踊りの仕草で変化させたり、車からの景 色の移り変わりで変化させたりすることができる。
[0066] (9)請求項 9に係る発明においては、請求項 8記載のプログラムを記録したコンビュ ータ読取り可能な記録媒体とすることにより、一般のコンピュータを容易に楽音生成 装置とすることができるようになる。

Claims

請求の範囲
[1] フレーム毎の画像データを入力として複数フレームの画像データの対応する各ピク セルの差分から動きを示す動きデータを抽出する動作部特定手段と、
この動作部特定手段により特定された前記動きデータに応じた音源、音階、音量等 をもつ楽音データを生成する楽音生成手段と、
この楽音生成手段により生成された楽音データを出力する出力手段とを備えた楽 音生成装置において、
前記楽音生成手段に楽音合成手段を設け、この楽音合成手段で前記楽音データ と他の音データとを合成した楽音データを生成することを特徴とする楽音生成装置。
[2] 前記楽音生成装置に、リズム制御手段を設け、このリズム制御手段で前記楽音デー タを加工することを特徴とする請求項 1記載の楽音生成装置。
[3] 前記楽音生成装置に、反復制御手段を設け、この反復制御手段により前記楽音デ ータを加工することを特徴とする請求項 1記載の楽音生成装置。
[4] 前記楽音生成装置に、パターンを登録した画像データベース (以下画像 DBと略称す る)と、画像マッチング手段とを設け、この画像マッチング手段が前記画像データ中の 図形をキーとして前記画像 DBからマッチングパターンを検出し、このマッチングパタ ーンと前記動きデータとから、前記楽音生成手段が楽音データを生成することを特徴 とする請求項 1記載の楽音生成装置。
[5] 前記楽音生成装置に発光手段を設け、この発光手段は前記楽音データに基づき発 光することを特徴とする請求項 1記載の楽音生成装置。
[6] 前記楽音生成装置に画像処理手段を設け、この画像処理手段は前記楽音データに 基づき画像処理することを特徴とする請求項 1記載の楽音生成装置。
[7] フレーム毎の画像データを入力単位として複数フレームの画像データの対応する各 ピクセルの差分力 動きを示す動きデータを算出し、この動きデータに応じた音源、 音階、音量をもつ楽音データを生成する楽音生成方法にぉレ、て、
前記楽音データと他の音データと合成した楽音データを生成することを特徴とする 楽音生成方法。
[8] フレーム毎の画像データを入力単位として複数フレームの画像データの対応する各 ピクセルの差分から動きを示す動きデータを抽出する動作部特定ステップと、 この動作部特定ステップにより特定された前記動きデータに応じた音源、音階、音 量等をもつ楽音データを生成する楽音生成ステップと、
この楽音生成ステップにより生成された楽音データを出力する出力ステップとを備 えた楽音生成装置にぉレ、て、
前記楽音生成ステップに楽音合成ステップを設け、この楽音合成ステップで前記楽 音データと他の音データとを合成した楽音データを生成することを特徴とする楽音生 成プログラム。
請求項 8記載のプログラムを記録したコンピュータ読取り可能な記録媒体。
PCT/JP2004/008037 2004-06-09 2004-06-09 楽音生成装置、楽音生成方法、楽音生成プログラムおよび記憶媒体 WO2005122134A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US11/629,235 US7655856B2 (en) 2004-06-09 2004-06-09 Musical sounding producing apparatus, musical sound producing method, musical sound producing program, and recording medium
EP04745712.2A EP1760689B1 (en) 2004-06-09 2004-06-09 Musical sound producing apparatus and musical sound producing method
PCT/JP2004/008037 WO2005122134A1 (ja) 2004-06-09 2004-06-09 楽音生成装置、楽音生成方法、楽音生成プログラムおよび記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2004/008037 WO2005122134A1 (ja) 2004-06-09 2004-06-09 楽音生成装置、楽音生成方法、楽音生成プログラムおよび記憶媒体

Publications (1)

Publication Number Publication Date
WO2005122134A1 true WO2005122134A1 (ja) 2005-12-22

Family

ID=35503306

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/008037 WO2005122134A1 (ja) 2004-06-09 2004-06-09 楽音生成装置、楽音生成方法、楽音生成プログラムおよび記憶媒体

Country Status (3)

Country Link
US (1) US7655856B2 (ja)
EP (1) EP1760689B1 (ja)
WO (1) WO2005122134A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7655856B2 (en) * 2004-06-09 2010-02-02 Toyota Motor Kyushu Inc. Musical sounding producing apparatus, musical sound producing method, musical sound producing program, and recording medium
WO2009052032A1 (en) * 2007-10-19 2009-04-23 Sony Computer Entertainment America Inc. Scheme for providing audio effects for a musical instrument and for controlling images with same
US7939742B2 (en) * 2009-02-19 2011-05-10 Will Glaser Musical instrument with digitally controlled virtual frets
KR101394306B1 (ko) * 2012-04-02 2014-05-13 삼성전자주식회사 효과 음향을 출력하는 휴대용 단말기의 장치 및 방법
US9281793B2 (en) 2012-05-29 2016-03-08 uSOUNDit Partners, LLC Systems, methods, and apparatus for generating an audio signal based on color values of an image
US20170177181A1 (en) * 2015-12-18 2017-06-22 Facebook, Inc. User interface analysis and management
US20180295317A1 (en) * 2017-04-11 2018-10-11 Motorola Mobility Llc Intelligent Dynamic Ambient Scene Construction
KR102390951B1 (ko) * 2020-06-09 2022-04-26 주식회사 크리에이티브마인드 영상기반 음악작곡방법 및 그 장치

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6491188A (en) * 1987-10-02 1989-04-10 Yamaha Corp Performance tempo controller
JPH04174696A (ja) * 1990-11-08 1992-06-22 Yamaha Corp 演奏環境に対応する電子楽器
JPH06102877A (ja) * 1992-09-21 1994-04-15 Sony Corp 音響構成装置
JPH08314462A (ja) * 1996-04-22 1996-11-29 Kawai Musical Instr Mfg Co Ltd 電子楽器
JPH1026978A (ja) * 1996-07-10 1998-01-27 Yoshihiko Sano 楽音自動発生装置
JPH11175061A (ja) * 1997-12-09 1999-07-02 Yamaha Corp 制御装置およびカラオケ装置
JP2000276139A (ja) * 1999-03-23 2000-10-06 Yamaha Corp 楽音生成方法および電子機器の制御方法
JP2001083969A (ja) * 1999-09-17 2001-03-30 Yamaha Corp 再生制御装置と媒体
JP2002311949A (ja) * 2001-04-12 2002-10-25 Mitsubishi Electric Corp 楽音制御装置および楽音制御方法
JP3098423U (ja) * 2003-06-09 2004-03-04 新世代株式会社 自動演奏装置及び自動演奏システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2537755A1 (fr) * 1982-12-10 1984-06-15 Aubin Sylvain Dispositif de creation sonore
AU571674B2 (en) * 1984-03-06 1988-04-21 Practel Pty Ltd Vision/reaction system
US5159140A (en) * 1987-09-11 1992-10-27 Yamaha Corporation Acoustic control apparatus for controlling musical tones based upon visual images
JP2629740B2 (ja) 1987-10-02 1997-07-16 ヤマハ株式会社 音響処理装置
JPH086549A (ja) * 1994-06-17 1996-01-12 Hitachi Ltd 旋律合成方法
US5689078A (en) * 1995-06-30 1997-11-18 Hologramaphone Research, Inc. Music generating system and method utilizing control of music based upon displayed color
JP4174696B2 (ja) 1998-11-11 2008-11-05 ソニー株式会社 記録装置および方法、並びに記録媒体
JP3637802B2 (ja) 1999-03-23 2005-04-13 ヤマハ株式会社 楽音制御装置
US7655856B2 (en) * 2004-06-09 2010-02-02 Toyota Motor Kyushu Inc. Musical sounding producing apparatus, musical sound producing method, musical sound producing program, and recording medium
US7606375B2 (en) * 2004-10-12 2009-10-20 Microsoft Corporation Method and system for automatically generating world environmental reverberation from game geometry
US7525034B2 (en) * 2004-12-17 2009-04-28 Nease Joseph L Method and apparatus for image interpretation into sound

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6491188A (en) * 1987-10-02 1989-04-10 Yamaha Corp Performance tempo controller
JPH04174696A (ja) * 1990-11-08 1992-06-22 Yamaha Corp 演奏環境に対応する電子楽器
JPH06102877A (ja) * 1992-09-21 1994-04-15 Sony Corp 音響構成装置
JPH08314462A (ja) * 1996-04-22 1996-11-29 Kawai Musical Instr Mfg Co Ltd 電子楽器
JPH1026978A (ja) * 1996-07-10 1998-01-27 Yoshihiko Sano 楽音自動発生装置
JPH11175061A (ja) * 1997-12-09 1999-07-02 Yamaha Corp 制御装置およびカラオケ装置
JP2000276139A (ja) * 1999-03-23 2000-10-06 Yamaha Corp 楽音生成方法および電子機器の制御方法
JP2001083969A (ja) * 1999-09-17 2001-03-30 Yamaha Corp 再生制御装置と媒体
JP2002311949A (ja) * 2001-04-12 2002-10-25 Mitsubishi Electric Corp 楽音制御装置および楽音制御方法
JP3098423U (ja) * 2003-06-09 2004-03-04 新世代株式会社 自動演奏装置及び自動演奏システム

Also Published As

Publication number Publication date
EP1760689B1 (en) 2016-03-09
US7655856B2 (en) 2010-02-02
EP1760689A1 (en) 2007-03-07
US20080289482A1 (en) 2008-11-27
EP1760689A4 (en) 2010-07-21

Similar Documents

Publication Publication Date Title
EP0306602B1 (en) Self-controlled vision system
US5005459A (en) Musical tone visualizing apparatus which displays an image of an animated object in accordance with a musical performance
US6225545B1 (en) Musical image display apparatus and method storage medium therefor
US10482856B2 (en) Automatic performance system, automatic performance method, and sign action learning method
EP1020843A1 (en) Automatic musical composition method
JP2012194525A (ja) 発音制御装置、特定装置、発音制御システム、プログラムおよび発音制御方法
JP2005025778A (ja) 画像処理方法および装置
WO2005122134A1 (ja) 楽音生成装置、楽音生成方法、楽音生成プログラムおよび記憶媒体
JP3452783B2 (ja) 振り付け採点機能を有するカラオケ装置
US20200365123A1 (en) Information processing method
JP2020046500A (ja) 情報処理装置、情報処理方法および情報処理プログラム
US7297860B2 (en) System and method for determining genre of audio
JP3077192B2 (ja) 演奏環境に対応する電子楽器
JP3643829B2 (ja) 楽音生成装置、楽音生成プログラムおよび楽音生成方法
US20220189200A1 (en) Information processing system and information processing method
JPH06301475A (ja) 位置検出装置
JP2993867B2 (ja) 観客情報から多様な対応をするロボットシステム
JP4765705B2 (ja) 楽音制御装置
JP2010194232A (ja) 舞台装置
Bering et al. Virtual Drum Simulator Using Computer Vision
JP2005321514A (ja) ゲーム装置および音程付効果音生成プログラムならびに方法
JP4257300B2 (ja) カラオケ端末装置
CN116740234A (zh) 信息处理方法、信息处理装置、演奏数据显示系统以及程序
WO2023037956A1 (ja) 演奏収録方法、演奏収録システムおよびプログラム
JP2008165098A (ja) 電子楽器

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004745712

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11629235

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2004745712

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: JP